360 resultados para vulnerabilità sismica, aggregati edilizi storici, Pergola
Resumo:
Il presente elaborato di tesi si inserisce nell’ambito del progetto europeo THESEUS (Innovative technologies for safer European coasts in a changing climate) fra i cui principali obiettivi c’è quello di fornire un’adeguata metodologia integrata per la pianificazione di strategie di difesa costiera sostenibili. Le zone costiere sono sempre più soggette agli impatti antropici, legati all’intensificazione dell’urbanizzazione, e agli effetti del global climate change, ed in particolare al conseguente sea level rise. Diventa quindi importante, in un’ottica di preservazione e di gestione, capire come gli ecosistemi costieri e i beni e servizi che essi forniscono risponderanno a questi cambiamenti ambientali. Fra questi, preponderanti sono quelli rappresentati dalle spiagge sabbiose. Al fine di valutare come differenti strategie di gestione possono influenzare il sistema spiaggia, è stata analizzata la riposta del comparto bentonico della zona intertidale di due differenti spiagge lungo la costa emiliano-romagnola. Lido di Spina è fortemente antropizzato e caratterizzato dalla presenza di infrastrutture balneari-turistiche permanenti. E’ soggetto, inoltre, a interventi di ripascimento annuali e di pulizia della spiaggia. Bellocchio, invece, è un sito naturale che presenta una spiaggia caratterizzata dall’arretramento della linea di costa causata dell’erosione, e non è soggetta a interventi di gestione finalizzati alla sua mitigazione. In questo studio è stata utilizzata la componente meiobentonica, generalmente trascurata, come indicatore chiave della vulnerabilità ecologica, mentre la zona intertidale sabbiosa è stata indagata in quanto reputata uno dei primi habitat costieri “recettore” degli eventi di flooding e degli interventi di gestione. Globalmente è stato possibile evidenziare differenze di struttura di comunità fra i due siti indagati, sottolineando come, anche questa componente sia in grado di far emergere i cambiamenti dovuti a differenti approcci di gestione delle coste sabbiose. Nella seconda parte del lavoro, invece, è stato testato un approccio metodologico innovativo, denominato “Fuzzy Bayes Ecological Model” (FBEM), sviluppato nell’ambito del progetto THESEUS. L’applicazione del FBEM in THESEUS è finalizzata alla simulazione delle risposte ecosistemiche ad eventi di flooding costiero ed al fenomeno del sea level rise. In questo elaborato, il modello è stato adottato al fine di descrivere eventuali cambiamenti dei popolamenti meiobentonici. Nello specifico, l’utilizzo del modello è servito per poter confrontare la situazione attuale relativa, quindi, allo scenario di sea level rise pari a zero, con quella ipotizzata dall’IPCC per il 2080 di sea level rise pari a 0,22 m, prendendo in considerazione otto tempi di ritorno di eventi simulati di flooding a intensità crescente. Dalle simulazioni emerge come il driver del danno ecologico sia l’onda frangente il cui effetto risulta, però, mitigato dal sea level rise. I popolamenti meiobentonici sono risultati dei buoni indicatori per la valutazione dei rischi connessi al flooding e al sea level rise, dimostrando così il loro possibile utilizzo come descrittori dei cambiamenti ecologici delle zone costiere. Per questo, lo studio ed il monitoraggio della dinamica e della struttura dei popolamenti meiobentonici può diventare un mezzo fondamentale per la comprensione delle funzionalità ecosistemiche delle spiagge sabbiose. E’ inoltre in grado di produrre alcune delle informazioni necessarie allo sviluppo dei piani di gestione integrata della fascia costiera in un ottica di conservazione di questi habitat costieri e dei servizi e beni da essi forniti.
Resumo:
In questo lavoro sono state studiate diverse miscele di conglomerato bituminoso riciclato a freddo, nelle quali si è inserito polverino di gomma proveniente da riciclaggio di pneumatici dismessi. Lo scopo è stato quello di valutare l’effetto del polverino di gomma all’interno di miscele, contenenti il 100% di fresato, confezionate a freddo con emulsione di bitume e cemento, analizzandone gli effetti sulla lavorabilità, sulla resistenza a trazione indiretta, sui moduli di rigidezza e sulle resistenze a fatica. Nel capitolo primo è introdotto il concetto di sviluppo sostenibile con particolare attenzione al campo delle pavimentazioni stradali. Sono analizzati i più recenti dati riguardanti la produzione di rifiuti di demolizione e ricostruzione in Europa e in Italia. Segue una descrizione del materiale di risulta da scarifica delle pavimentazioni stradali, dei pneumatici e delle modalità di recupero degli stessi. Nel capitolo secondo sono riportati i principali riferimenti legislativi a livello comunitario, nazionale e locale riguardanti le attività coinvolte nel processo di riciclaggio dei rifiuti per la loro utilizzazione nella costruzione di opere stradali, accompagnati dai principali documenti ausiliari, quali sentenze e disposizioni applicative a completamento del suddetto quadro normativo. Nel capitolo terzo vengono descritte le principali tecniche di riciclaggio del fresato. Particolare attenzione viene posta nella descrizione delle procedure operative e dei macchinari adottati nelle operazioni di riciclaggio in sito. Infine vengono valutati i pregi e i difetti delle tecniche di riciclaggio a freddo analizzando i vantaggi economici ed ambientali rispetto a quelle tradizionali a caldo. Nel capitolo quarto sono analizzate le singole costituenti della miscela: Emulsione Bituminosa, Cemento, Aggregati, Polverino di Gomma e Acqua, definendone per ciascuna il ruolo e le caratteristiche meccaniche e fisiche che le contraddistinguono. Nel capitolo quinto, viene sviluppato il programma sperimentale, sono definiti gli obbiettivi e descritte in modo approfondito le cinque fasi nelle quali si articola. Nella fase uno, vengono introdotte le miscele che dovranno essere studiate. Segue una caratterizzazione dei principali costituenti alla base di tali miscele: fresato , polverino di gomma, cemento, filler,emulsione bituminosa. Nella fase due avviene il confezionamento dei provini mediante compattazione con pressa giratoria. Al termine della realizzazione dei campioni, vengono descritte e analizzate le proprietà volumetriche del materiale quali il grado di addensamento, la densità, la lavorabilità. Nelle fasi tre, quattro e cinque, vengono eseguiti in successione test per la valutazione delle resistenze a trazione indiretta ITS, test per la determinazione dei moduli di rigidezza ITSM ed infine test per la valutazione delle durate dei materiali a fatica ITFT. Per ognuno dei test, sono descritte le procedure operative sulla base delle normative di riferimento vigenti. Segue l’analisi dei risultati di ciascuna prova e la valutazione dell’effetto che i singoli costituenti hanno sulle caratteristiche meccaniche della miscela.
Resumo:
Il termine cloud ha origine dal mondo delle telecomunicazioni quando i provider iniziarono ad utilizzare servizi basati su reti virtuali private (VPN) per la comunicazione dei dati. Il cloud computing ha a che fare con la computazione, il software, l’accesso ai dati e servizi di memorizzazione in modo tale che l’utente finale non abbia idea della posizione fisica dei dati e la configurazione del sistema in cui risiedono. Il cloud computing è un recente trend nel mondo IT che muove la computazione e i dati lontano dai desktop e dai pc portatili portandoli in larghi data centers. La definizione di cloud computing data dal NIST dice che il cloud computing è un modello che permette accesso di rete on-demand a un pool condiviso di risorse computazionali che può essere rapidamente utilizzato e rilasciato con sforzo di gestione ed interazione con il provider del servizio minimi. Con la proliferazione a larga scala di Internet nel mondo le applicazioni ora possono essere distribuite come servizi tramite Internet; come risultato, i costi complessivi di questi servizi vengono abbattuti. L’obbiettivo principale del cloud computing è utilizzare meglio risorse distribuite, combinarle assieme per raggiungere un throughput più elevato e risolvere problemi di computazione su larga scala. Le aziende che si appoggiano ai servizi cloud risparmiano su costi di infrastruttura e mantenimento di risorse computazionali poichè trasferiscono questo aspetto al provider; in questo modo le aziende si possono occupare esclusivamente del business di loro interesse. Mano a mano che il cloud computing diventa più popolare, vengono esposte preoccupazioni riguardo i problemi di sicurezza introdotti con l’utilizzo di questo nuovo modello. Le caratteristiche di questo nuovo modello di deployment differiscono ampiamente da quelle delle architetture tradizionali, e i meccanismi di sicurezza tradizionali risultano inefficienti o inutili. Il cloud computing offre molti benefici ma è anche più vulnerabile a minacce. Ci sono molte sfide e rischi nel cloud computing che aumentano la minaccia della compromissione dei dati. Queste preoccupazioni rendono le aziende restie dall’adoperare soluzioni di cloud computing, rallentandone la diffusione. Negli anni recenti molti sforzi sono andati nella ricerca sulla sicurezza degli ambienti cloud, sulla classificazione delle minacce e sull’analisi di rischio; purtroppo i problemi del cloud sono di vario livello e non esiste una soluzione univoca. Dopo aver presentato una breve introduzione sul cloud computing in generale, l’obiettivo di questo elaborato è quello di fornire una panoramica sulle vulnerabilità principali del modello cloud in base alle sue caratteristiche, per poi effettuare una analisi di rischio dal punto di vista del cliente riguardo l’utilizzo del cloud. In questo modo valutando i rischi e le opportunità un cliente deve decidere se adottare una soluzione di tipo cloud. Alla fine verrà presentato un framework che mira a risolvere un particolare problema, quello del traffico malevolo sulla rete cloud. L’elaborato è strutturato nel modo seguente: nel primo capitolo verrà data una panoramica del cloud computing, evidenziandone caratteristiche, architettura, modelli di servizio, modelli di deployment ed eventuali problemi riguardo il cloud. Nel secondo capitolo verrà data una introduzione alla sicurezza in ambito informatico per poi passare nello specifico alla sicurezza nel modello di cloud computing. Verranno considerate le vulnerabilità derivanti dalle tecnologie e dalle caratteristiche che enucleano il cloud, per poi passare ad una analisi dei rischi. I rischi sono di diversa natura, da quelli prettamente tecnologici a quelli derivanti da questioni legali o amministrative, fino a quelli non specifici al cloud ma che lo riguardano comunque. Per ogni rischio verranno elencati i beni afflitti in caso di attacco e verrà espresso un livello di rischio che va dal basso fino al molto alto. Ogni rischio dovrà essere messo in conto con le opportunità che l’aspetto da cui quel rischio nasce offre. Nell’ultimo capitolo verrà illustrato un framework per la protezione della rete interna del cloud, installando un Intrusion Detection System con pattern recognition e anomaly detection.
Resumo:
Nell’ambito del presente lavoro sperimentale sono state prese in considerazione differenti tecniche, tradizionali ed innovative, per la determinazione del contenuto di acqua presente negli oli extravergine di oliva. Seppur presente nell'olio in quantità limitata, l'acqua é in grado di favorire la dissoluzione e veicolare componenti minori idrofilici (come le molecole a struttura fenolica e polifenolica) all'interno di micelle inverse che si creano nella matrice lipidica quando alla superficie acqua-olio si aggregano composti anfifilici (come i digliceridi, i monogliceridi, gli acidi grassi liberi, i fosfolipidi etc.) che danno luogo alla formazione di aggregati colloidali. I risultati ottenuti su un set di 60 campioni hanno evidenziato come esistano correlazioni positive e soddisfacenti tra le diverse metodiche analitiche tradizionali quali la titolazione titrimetrica di Karl Fisher e quelle gravimetriche per essiccamento in stufa o mediante termobilancia. La migliore correlazione in termini di R2 con valore pari a circa 0,82 è stata ottenuta tra i metodi Karl Fisher ed essiccamento in stufa, mentre per esempio quella tra i due metodi gravimetrici (stufa e termobilancia) ha fatto registrare un valore inferiore (0,70). Pur essendosi verificate delle soddisfacenti correlazioni tra le tre tecniche tradizionali, i valori del contenuto in acqua dei campioni si sono presentati variabili in funzione dell'utilizzo di una modalità di misurazione rispetto all'altra. Tale variabilità é funzione di diversi fattori: la difficoltà di determinare l'acqua fortemente legata nel caso dei metodi per essiccamento; la perdita in peso causata anche da altri componenti in grado di volatilizzare alle condizioni analitiche adottate; la possibilità di formazione di composti non originariamente presenti come risultato di modificazioni chimiche indotte dall'elevata temperatura. Il contenuto di acqua è stato quindi stimato anche mediante una tecnica innovativa a basso costo basata su misure dielettriche. Considerato che l’olio extravergine di oliva è noto essere un ottimo isolante, il fenomeno dielettrico osservato risulta essere di natura capacitiva. Il risultato di correlazione ottenuto su un set di 23 oli extravergini di oliva applicando in parallelo questa tecnica rapida e la misura gravimetrica con stufa (che é un metodo ISO), è da considerarsi soddisfacente, con un R2 pari anche in questo caso a 0,82. In conclusione, le tecniche attualmente utilizzate per la determinazione del contenuto di acqua in oli extravergine di oliva risultano tra loro correlate. Considerando che tali tecniche tradizionali sono dispendiose o in termini di tempo (gravimetrico mediante stufa) o in termini di consumo di reagenti e solventi (titrimetrico con reattivo di Karl Fischer), il nuovo approccio sperimentato mediante misure capacitive può essere considerato molto interessante anche se, sicuramente, sarà da applicare ad un numero più ampio di campioni per rendere l'evidenza sperimentale più robusta.
Resumo:
Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.
Resumo:
Il BPA è un composto aromatico precursore di materiali plastici e additivi chimici, ed è entrato a far parte della categoria dei contaminanti che alterano il sistema endocrino con molteplici effetti negativi sulla salute umana (azione di mimesi estrogenica, alterazioni della funzione tiroidea e dei sistemi riproduttivo, nervoso ed immunitario). Nella fase produttiva industriale si hanno emissioni accidentali di BPA durante il trattamento e la lavorazione dei monomeri plastici. Piccole frazioni di BPA possono essere ingerite dall’uomo poiché la sostanza migra nel tempo dal contenitore alimentare al contenuto (es. bevanda in lattina o contenitore per microonde) soprattutto se esposto ad alte temperature. Anche il contatto con composti acidi o basici, la presenza di elevati livelli di cloruro di sodio o di oli vegetali, è in grado di provocare un incremento del rilascio di BPA dai materiali polimerici. Il BPA viene rilasciato dai biberon in policarbonato, che in molti Paesi sono stati ritirati dal commercio nel 2011, e da bottiglie di acqua riutilizzabili. Infine, la carta termica degli scontrini e delle fotocopie rilasciano BPA. Nell’adulto la tossicità del BPA sembra modesta, tuttavia l'esposizione nel feto e nel neonato può risultare deleteria. Al di là della tossicità, l'aspetto che al momento preoccupa maggiormente è l'effetto che il BPA ha anche a basse dosi sul metabolismo: diversi studi in tutto il mondo correlano questa sostanza all'incidenza di diabete, ipertensione, obesità e problemi cardiaci. L’attenzione per il BPA è piuttosto recente a livello umano, mentre è assai ridotta per la salute dell’ecosistema. Tuttavia è noto che il BPA è presente anche come contaminante dei suoli, e pur essendo stato documentato il suo bioaccumulo negli organismi vegetali, non sono disponibili informazioni precedenti relativi agli effetti del BPA sugli organismi animali del suolo, in linea con il fatto che il suolo è stato una matrice ambientale molto trascurata. Il presente lavoro di tesi quindi si pone come uno studio pilota per valutare la possibile tossicità del BPA su organismi modello che vivono in questa matrice. In questo studio è stato scelto come bioindicatore “sentinella” il lombrico Eisenia andrei, il comune verme rosso, come suggeriscono le linee guida internazionali (OECD, OCSE). I possibili effetti biologici del Bisfenolo A nei lombrichi sono stati indagati sia attraverso endpoint del ciclo vitale (accrescimento, riproduzione e mortalità), sia attraverso una batteria di biomarker (generali e specifici). Data la mancanza di osservazioni precedenti si è scelto un approccio integrato tra i parametri del ciclo vitale, in genere meno sensibili ma ecologicamente più rilevanti, e i biomarker, risposte più sensibili che possono rappresentare segnali precoci di allarme inerenti l’esposizione a contaminanti ambientali o l’effetto di questi ultimi sugli organismi indagati, ma non necessariamente predittivi sulla salute della comunità. Al momento non esistono batterie di biomarker specifiche per questa sostanza, quindi un ulteriore scopo della ricerca è stato quello di evidenziare biomarker utili ad indagare eventuali alterazioni biochimiche e funzionali nei lombrichi in risposta all’esposizione a dosi crescenti di bisfenolo A. Le risposte biologiche indagate sono: - la diminuzione della stabilità delle membrane lisosomiali, che indica una riduzione dello stato di salute generale degli organismi; - l’alterazione dell’attività degli enzimi catalasi e glutatione-S-trasferasi, indice di stress ossidativo o induzione di meccanismi di detossificazione; - la diminuzione dell’attività dell’enzima acetilcolinesterasi, la quale indica neurotossicità; - l’accumulo di lipofuscine o lipidi neutri, che è sintomo rispettivamente di stress ossidativo o alterazioni del metabolismo; - la variazione della malondialdeide, composto intermedio della perossidazione lipidica, indica un stress ossidativo in corso. Sulla base dei dati ottenuti possiamo dire che il BPA, alle concentrazioni ambientali, non costituisce un elemento di rischio ecologico per gli organismi sentinella Eisenia andrei. Alle concentrazioni più elevate (che superano quelle ambientali di almeno 10 volte) si osservano delle alterazioni sui livelli di lipidi neutri e lipofuscine che pur non essendo preoccupanti dal punto di vista ecologico sono indice di vulnerabilità, dato che si tratta di alterazioni del metabolismo in conseguenza delle quali gli animali accumulano residui normalmente degradati a livello lisosomiale. Questo accumulo nei lisosomi delle cellule del tessuto cloragogeno dei vermi, che rivestono il tubo digerente, sembrano indicare una esposizione attraverso la dieta a seguito della ingestione del terreno. E’interessante il fatto che l’accumulo di lipidi è in linea con le caratteristiche obesogene del BPA, ben manifestate nei mammiferi, uomo compreso. Tuttavia non ci sono ancora conoscenze sufficienti per stabilire se questo accumulo nei vermi sia dovuto ad una specifica alterazione degli enzimi di sintesi dei lipidi oppure più genericamente ad un aumento dello stress ossidativo. Molti studi stanno valutando la capacità del BPA di alterare la sintesi e il rilascio di lipidi in cellule umane e di ratto, ma non ci sono ancora studi di questo tipo per gli organismi edafici. E’ auspicabile che questo aspetto venga approfondito, ed eventualmente venga identificato un nuovo biomarker specifico dell’azione del BPA sull’accumulo di lipidi. Un altro aspetto che sarà interessante approfondire è il bioaccumulo: la valutazione del rischio ecotossicologico di una sostanza si basa anche sul potenziale di BCF che può essere pericoloso per il biota (incluso l’uomo) per trasferimento nella catena trofica. Considerando che non esistono ancora studi specifici del bioaccumulo del BPA in organismi del suolo, ed avendo messo in luce che l’assunzione della sostanza è avvenuta (probabilmente per via alimentare) ci si pone l’obiettivo futuro di valutare questo parametro nei lombrichi, in modo da avere un quadro più ampio degli effetti associati a questo interferente endocrino nei suoli.
Resumo:
La Colonia Reggiana, situata a Riccione presso la foce del fiume Marano, è stata costruita nel 1934, dal progetto dell’arch. C. Costantini. Nata come colonia marina per i bambini di Reggio Emilia, ha mantenuto la sua funzione fino agli anni ‘80, quando, in seguito al passaggio di proprietà dalla regione Emilia Romagna al comune di Riccione, è caduta in disuso. Dal 1989 una parte dell’edificio ha ospitato associazioni di sport acquatici fino all’estate del 2012, quando è stato vietato l’accesso alla colonia a scopo cautelativo, a causa dell’attività sismica che ha colpito la regione Emilia Romagna. La Colonia si inserisce in una porzione periferica del comune di Riccione. La zona del Marano, caratterizzata da una concentrazione elevata di colonie marine, si trova in un’area di confine tra i comuni di Riccione e di Rimini, caratterizzata da un’interruzione del waterfront, da una minore densità di edifici e da una natura urbanistica irrisolta, nonostante la posizione strategica di ‘porta della città’ e il pregio di essere una delle ultime zone libere lungo la costa. In particolare, l’ambito di interesse è l’area delimitata a est dal mare, a ovest dalla linea ferroviaria, a sud dal fiume Marano e a nord dal confine comunale, che coincide con il Rio dell’Asse. La pianificazione comunale, in accordo con le indicazioni di livello sovraordinato, prevede la riqualificazione degli ampi spazi lasciati incolti e il potenziamento della zona attraverso uno sviluppo di carattere alberghiero, ma anche residenziale e di servizi di vicinato. L’area dovrebbe perdere il suo carattere isolato dal resto della città e il progetto presentato da questa tesi, riportando le indicazioni comunali per lo sfruttamento delle aree verdi secondo piani già approvati, propone per la Colonia Reggiana una funzione diversa da quella alberghiera prevista. Mantenendo il carattere ricettivo richiesto dalla pianificazione urbanistica, il progetto si prefigge di riqualificare l’edificio convertendolo in una residenza socio-assistenziale per anziani. La funzione risulta adatta alla tipologia della colonia, nata come residenza estiva per bambini a scopo curativo, oltre che ricreativo, rispondendo quindi alla natura dell’edificio. La posizione, inoltre, appare positiva e piacevole per la permanenza di persone anziane che, nel periodo più avanzato della propria vita, possono godere del paesaggio e dell’aria marina, invece di ritrovarsi in edifici isolati. Il progetto di recupero della colonia consiste nel restauro o sostituzione delle parti degradate, conservando l’immagine e la natura del progetto, e nel miglioramento delle prestazioni dell’involucro in modo tale che, inserendo un sistema impiantistico adeguato, si possa raggiungere una buona prestazione energetica. La tesi si propone di valutare la possibilità di recuperare la colonia sia dal punto funzionale che da quello energetico, nel rispetto delle normative vigenti.
Resumo:
Nell'era di Internet e della digitalizzazione, anche la telefonia ha avuto la possibilità di evolversi, e grazie alle tecnologie Voice-over-IP è stato possibile realizzare servizi di comunicazione avanzata su reti di dati. Anche se la comunicazione vocale è l'aspetto chiave di questi sistemi, le reti VoIP supportano altri tipi di servizi, tra cui video, messaggistica istantanea, condivisione di file, ecc. Il successo di questa nuova tipologia di rete è dovuto ad una migliore flessibilità rispetto ai vecchi sistemi analogici, grazie ad architetture aperte e implementazioni a livello software, e soprattutto ad un minor costo legato alle apparecchiature ed ai collegamenti utilizzati, ed ai nuovi modelli di business e di consumo sempre più orientati allo sfruttamento della connettività a banda larga. Tuttavia, l'implementazione dei sistemi VoIP rappresenta anche un grado di complessità maggiore in termini di architetture di rete, di protocolli, e di implementazione, e con questo ne segue un incremento delle possibili vulnerabilità. Una falla nella sicurezza in questi sistemi può portare a disservizi e violazione della privacy per gli utenti con conseguenti ripercussioni economiche per i relativi gestori. La tesi analizza la sicurezza delle reti VoIP concentrandosi sul protocollo che sta alla base dei servizi multimediali, il protocollo SIP. SIP è un protocollo di livello applicativo realizzato per creare, modificare e terminare delle sessioni multimediali tra due o più utenti. Dopo un'introduzione alle generalità del protocollo, vengono esaminate le classi di vulnerabilità delle reti VoIP e gli attacchi a SIP, e vengono presentate alcune contromisure attuabili. Viene mostrato un esempio di come vengano attuati alcuni dei principali attacchi a SIP tramite l'utilizzo di appositi strumenti. L'eborato conclude con alcune considerazioni sulle minacce al protocollo e sugli obiettivi futuri che la comunità scientifica dovrebbe perseguire.
Resumo:
Questa tesi di laurea vuole fornire delle ipotesi per un possibile riutilizzo della casa del Dopolavoro nella città di Imola. Di questo edificio, dismesso ormai da anni, verrà fatta un'analisi storica attraverso i documenti di archivio, riviste dell'epoca e disegni originali, e verranno avanzate ipotesi progettuali sulla base di disegni storici e rilievi attuali. Per meglio render comprensibili gli interventi previsti da questa tesi di laurea, il progetto prevede la suddivisione degli spazi in quattro macrozone principali, ognuna delle quali viene affrontata singolarmente. Di ogni macrozona viene fatto un confronto tra stato di fatto e progetto, identificandone i fattori più rilevanti e spiegando le motivazioni che hanno portato ad eventuali interventi di ripristino od alla nuova destinazione d'uso, così da poterne meglio identificarne la posizione nella struttura dell'edificio nella visione complessiva.
Resumo:
Il complesso residenziale “Pilastro” costruito tra il 1962 e il 1985 si trova a Bologna, a nord del quartiere San Donato, oltre la linea tracciata dalla tangenziale e si è costituito in tre fasi, corrispondenti ai tre comparti di intervento: il nucleo di prima realizzazione, il “Virgolone” e le torri. Il tema affrontato in questa tesi, elaborato all’interno del laboratorio di sintesi finale Architettura sostenibile, riguarda la definizione di strategie di intervento per la riqualificazione del comparto di “Primo impianto” che attualmente presenta molteplici criticità: - debole coesione sociale ed episodi di disagio e micro-criminalità - inadeguatezza sismica - scarse prestazioni energetiche degli edifici Il progetto si è proposto l’obbiettivo di ricucire e rifunzionalizzare l’intero comparto, investendo in modo integrato gli aspetti urbanistico, architettonico e tecnologico, in modo da influire positivamente sulle condizioni socio-economiche dell’insediamento.
Resumo:
La ricerca iniziata all’interno del Laboratorio di Sintesi Finale, e che ha continuato ad approfondirsi parallelamente al progetto durante lo sviluppo della tesi, si è basata sullo studio del tessuto urbano e sulla sperimentazione della sostituzione di porzioni dello stesso come strumento progettuale. Oggi, il patrimonio immobiliare italiano è in gran parte caratterizzato da edifici costruiti nel periodo dell’emergenza, degli anni Cinquanta e Sessanta; la maggior parte di esso è costituito da edilizia che ora necessita di interventi di manutenzione e rinnovo (anche dai punti di vista energetico, impiantistico e sismico), perchè nel periodo della loro realizzazione sono stati usati sistemi costruttivi sbrigativi e si è cercato di ridurre i costi. Si tratta di un fenomeno diffuso che interessa anche la zona della costa dell’Emilia-Romagna: oltre 130 km di riviera caratterizzati da diversi paesaggi che sono il risultato diretto del rapporto uomo-natura. “La presenza e l’azione dell’uomo è ed è stata dominante sul paesaggio costiero mediterraneo, a volte con grande sapienza, equilibrio e rispetto dei luoghi, altre volte con devastante consumo e depauperamento dell’ambiente e delle sue risorse”. Rimini e le sue frazioni fanno parte di un paesaggio fortemente antropizzato, che mostra chiaramente i segni di quegli anni di costruzione privi di pianificazione che hanno favorito lo sviluppo di una serie di nuclei costieri contigui, addensati all’interno di una porzione di territorio delimitata da due linee: quella ferroviaria e quella di costa. Il caso di Viserba è emblematico, perché oggi rappresenta il risultato di una edilizia che ha seguito un’ottica prevalentemente privatistica e speculativa. Il territorio, estremamente parcellizzato e denso, ha favorito la creazione di una sorta di confusione urbana tale da rendere difficilmente riconoscibili i caratteri originari del luogo. Il lungomare è diventato il manifesto di questo intervento, tanto che se si rivolgono le spalle al mare per osservare il primo fronte, ciò che si nota non sono di certo i villini storici, i quali passano inevitabilmente in secondo piano. Il nostro esercizio progettuale si è concentrato proprio sulla fascia litoranea che oggi non dialoga più con il mare, ponendoci come obiettivi, non solo lo sviluppo di una strategia di riqualificazione urbana, ma anche la ricerca di un modo per ristabilire attraverso un nuovo segno urbano, il legame perso tra acqua e terra. Fondamentali per il recupero del rapporto della città con il mare sono stati l’inserimento di spazi destinati alla collettività, percorsi, accessi al mare in grado di ricostituire la facciata marittima e di fungere da legante di un sistema unico che comprende sia la struttura urbana sia la fascia costiera, estendendoci fino alle barriere frangiflutti, che oggi costituiscono solo un limite visivo molto forte. La sfida che, pertanto, è stata lanciata già all’interno del laboratorio era quella di cercare una risposta progettuale, una strategia chiara e condivisa, che aspirasse a risolvere i problemi generati da quegli anni di edificazione “compulsiva” e senza regole all’interno del particolare contesto viserbese. La nostra ricerca è stata supportata dall’approfondimento di un tema comune principale, la sostituzione di tessuto urbano, che è diventato per noi lo strumento chiave per lo sviluppo del progetto. L’analisi si è concentrata, tra i vari aspetti, anche sulla situazione attuale italiana che è apparsa critica e poco incoraggiante a causa del basso livello qualitativo degli edifici nelle principali aree urbane (circa il 35% è stato costruito attorno agli anni Cinquanta ed è inefficiente da diversi punti di vista), della crisi del mercato immobiliare e del disagio sociale derivante da ragioni di vario tipo. L’Italia è un paese eccessivamente radicato a una scelta urbanistica conservativa e perciò ancora molto lontano dalla logica della sostituzione urbana. Quest’ultima può costituire il mezzo per redigere un coraggioso progetto strategico che, nell’ottica del lungo periodo, permetta di delineare un disegno dello sviluppo urbano delle nostre città, migliorandone le loro realtà urbane? Il dibattito oggi è molto acceso. Ed è proprio per tentare di trovare una possibile risposta a questo interrogativo che il nostro esercizio progettuale ha sperimentato questo tipo di intervento.
Resumo:
L'elaborato consiste nella prima traduzione italiana delle tre opere cardine dell'Ars Analytica di François Viète. L’obiettivo di questa tesi è quello di condurre un’analisi, attraverso la traduzione, il commento e l’interpretazione di Isagoge in Artem analyticem, Ad Logisticem Speciosam Notae Priores, Zeteticorum libri quinque, testi fondamentali per lo sviluppo dell’algebra come disciplina autonoma e obiettiva, prestando particolare attenzione anche alle interpretazioni geometriche proposte dagli allievi di Viète. Infine vengono analizzati gli zetetici, cioè i problemi, riguardanti la risoluzione delle equazioni diofantee di secondo e terzo grado alla luce delle osservazioni riportate da Fermat nella sua copia dell’Aritmetica (edizione di Claude Gaspard Bacheti, 1621). Fermat, infatti propone un’analisi del testo diofanteo che va al di là di una semplice traduzione, ottenendo risultati che sono ben noti agli storici della matematica e ai matematici.
Resumo:
La presente tesi tratta il comportamento meccanico delle fasce di piano in muratura composite. Con tale termine ci si riferisce alle fasce di piano che hanno al di sotto un elemento portante in conglomerato cementizio armato, come ad esempio cordoli o solai. Assieme ai maschi murari, le fasce di piano costituiscono gli elementi portanti di una parete in muratura. Tuttavia, in caso di analisi sismica di un edificio in muratura, l’effetto fornito da tali elementi è trascurato e si considera solamente il contributo dei maschi murari. Ciò è dovuto anche alla scarsa conoscenza che ancora oggi si possiede sul loro comportamento meccanico. Per questo motivo diversi gruppi di ricerca tutt’ora sono impegnati in tale studio. In particolare, il lavoro di questa tesi, s’inserisce nel più ampio progetto di ricerca condotto dalla professoressa Katrin Beyer, direttrice del Laboratorio di Ingegneria Sismica e Dinamica Strutturale del Politecnico di Losanna (Svizzera).
Resumo:
Tutte le attività che utilizzano acqua nel ciclo produttivo, inevitabilmente la sporcano, l'acqua che si prende pulita deve essere restituire "pulita". Basta pensare agli scarichi fognari: ognuno di noi prende a casa propria acqua pulita dall'acquedotto e la restituisce alla rete fognaria sporca. Pensiamo allo scarico della lavastoviglie, della lavatrice, della doccia e via di seguito. Gli impianti di depurazione sono quegli impianti che hanno il compito di depurare l'acqua, sia per il rispetto dei corpi ricettori allo scarico, sia per il possibile riutilizzo. Naturalmente le normative regolano la qualità dell'acqua e gli enti di controllo vigilano sul rispetto delle leggi. Ovviamente ogni carico inquinante insieme ai volumi giornalieri e agli spazi a disposizione, impone una scelta tecnica diversa per la depurazione. In un impianto di trattamento inerti, materiale di cava a basso valore di mercato, è importante riutilizzare ogni prodotto ricavato dal processo. Di seguito viene considerato il caso specifico dei limi di lavaggio inerti: “patata bollente” per tutte le aziende e soggetto di numerose discussioni in quanto è un argomento complesso da più punti di vista. Il materiale in esame, denominato “limo da lavaggio inerti”, rappresenta lo scarto della lavorazione degli inerti stessi provenienti dalle cave di ghiaia e sabbia in un impianto di produzione di inerti. Questi impianti eseguono sui materiali di cava le operazioni di macinazione, vagliatura, classificazione, slimatura e recupero dei fini. Dunque l’acqua, che proviene dai processi di macinazione, vagliatura e lavaggio del materiale, trascina con sé impurità di origine organica e argillosa, ma soprattutto finissimi in sospensione: i limi. Essi generano un inquinamento dell’acqua il cui aspetto visibile (la colorazione dell’acqua) è il meno pericoloso, infatti suddette sospensioni, dopo lo scarico delle torbide in fiumi, laghi o mare, generano depositi sulle rive che possono causare deviazioni del corso stesso nel caso dei corsi d’acqua; o ancor più grave la impermeabilizzazione dei terreni attraversati con le relative conseguenze in campo agricolo, e ancora il mancato approvvigionamento delle falde acquifere per l’impossibilità da parte dell’acqua superficiale di penetrare nel terreno. Essa dunque, necessita di trattamenti specifici per separare questi solidi in sospensione e consentirne il suo reimpiego nell’impianto stesso almeno in buona percentuale e di conseguenza la diminuzione di nuova acqua fresca necessaria. Per fortuna l’inquinamento è solo “fisico” e molto si può fare per ridurlo, esistono infatti macchinari specifici per eliminare dall’acqua gli elementi inquinanti e restituirla (quasi) limpida.
Resumo:
In questo lavoro di tesi sono stati confrontati diversi protocolli per la purificazione della proteina CRM197 mediante cromatografia di affinità a cationi divalenti. Il CRM197 è una variante della tossina difterica caratterizzata da stessa massa molecolare e struttura. A causa di un’unica mutazione (G52E), tale variante è atossica e presenta numerose applicazioni in campo farmaceutico (in particolare nella preparazione di vaccini coniugati). Fino ad ora, per la produzione del CRM197 è stato utilizzato il ceppo originale di derivazione, cioè Corynebacterium diphteriae, e la produzione eterologa nel batterio Escherichia coli ha mostrato notevoli difficoltà. In particolare, mentre è stato possibile definire un valido protocollo di sovraespressione e di estrazione proteica, le fasi successive di purificazione e di refolding (rinaturazione) sono ancora problematiche e causano basse rese finali, ostacolando le prospettive di scale-up su scala industriale. Il CRM197, infatti, per le sue caratteristiche strutturali, come l’elevata percentuale di amminoacidi idrofobici e la presenza di foglietti β esposti al solvente, è suscettibile alla formazione di aggregati insolubili che impone, lungo tutto il processo, il controllo delle interazioni idrofobiche (con agenti denaturanti e/o detergenti). In un precedente lavoro di tesi, è stato sviluppato un protocollo valido per ottenere un’elevata espressione proteica intracellulare. Il primo passaggio di purificazione prevede una cromatografia di affinità su colonna che viene sfruttata anche per eseguire il refolding proteico. Tuttavia, durante la messa a punto di tale processo, sono stati osservati evidenti fenomeni di aggregazione della proteina, oltre all’instaurarsi di legami aspecifici proteina-proteina o proteina-resina cromatografica. In questo lavoro di tesi sono state affrontate alcune problematiche legate a tale passaggio di purificazione per cercare di individuare le condizioni ottimali per ottenere il CRM197 in forma nativa e biologicamente attiva.