1000 resultados para Verifiche di vulnerabilità sismica struttura mista esistente
Resumo:
Nel presente elaborato si è affrontato il tema dell’utilizzo di biogas per la produzione di energia elettrica e termica; in primo luogo è stata fatta una panoramica sulla diffusione degli impianti di digestione anaerobica in Europa e in Italia, con particolare attenzione alla logica degli incentivi volti alla promozione delle fonti rinnovabili. Il biogas presenta infatti il duplice vantaggio di inserirsi sia nell’ottica del “Pacchetto Clima-Energia” volto alla riduzione di consumi energetici da fonti fossili, sia nella migliore gestione dei rifiuti organici volta alla riduzione del conferimento in discarica. L’allineamento degli incentivi italiani con quelli europei, prevista dal Decreto Ministeriale 6 luglio 2012, presuppone un’espansione del settore biogas più oculata e meno speculativa di quella degli ultimi anni: inoltre la maggiore incentivazione all’utilizzo di rifiuti come materia prima per la produzione di biogas, comporta l’ulteriore vantaggio di utilizzare, per la produzione di energia e compost di qualità, materia organica che nel peggiore dei casi sarebbe inviata in discarica. Il progetto oggetto di studio nasce dalla necessità di trattare una quantità superiore di Frazione Organica di Rifiuti Solidi Urbani da R.D, a fronte di una riduzione drastica delle quantità di rifiuti indifferenziati conferiti ai siti integrati di trattamento di rifiuti non pericolosi. La modifica nella gestione integrata dei rifiuti prevista dal progetto comporta un aumento di efficienza del sito, con una drastica riduzione dei sovvalli conferiti a discariche terze, inoltre si ha una produzione di energia elettrica e termica annua in grado di soddisfare gli autoconsumi del sito e di generare un surplus di elettricità da cedere in rete. Nel contesto attuale è perciò conveniente predisporre nei siti integrati impianti per il trattamento della FORSU utilizzando le Migliori Tecniche Disponibili proposte dalle Linee Guida Italiane ed Europee, in modo tale da ottimizzare gli aspetti ambientali ed economici dell’impianto. Nell’elaborato sono stati affrontati poi gli iter autorizzativi necessari per le autorizzazioni all’esercizio ed alla costruzione degli impianti biogas: a seguito di una dettagliata disamina delle procedure necessarie, si è approfondito il tema del procedimento di Valutazione di Impatto Ambientale, con particolare attenzione alla fase di Studio di Impatto Ambientale. Inserendosi il digestore in progetto in un sito già esistente, era necessario che il volume del reattore fosse compatibile con l’area disponibile nel sito stesso; il dimensionamento di larga massima, che è stato svolto nel Quadro Progettuale, è stato necessario anche per confrontare le tipologie di digestori dry e wet. A parità di rifiuto trattato il processo wet richiede una maggiore quantità di fluidi di diluizione, che dovranno essere in seguito trattati, e di un volume del digestore superiore, che comporterà un maggiore dispendio energetico per il riscaldamento della biomassa all’interno. È risultata perciò motivata la scelta del digestore dry sia grazie al minore spazio occupato dal reattore, sia dal minor consumo energetico e minor volume di reflui da trattare. Nella parte finale dell’elaborato sono stati affrontati i temi ambientali,confrontando la configurazione del sito ante operam e post operam. È evidente che la netta riduzione di frazione indifferenziata di rifiuti, non totalmente bilanciata dall’aumento di FORSU, ha consentito una riduzione di traffico veicolare indotto molto elevato, dell’ordine di circa 15 mezzi pesanti al giorno, ciò ha comportato una riduzione di inquinanti emessi sul percorso più rilevante per l’anidride carbonica che per gli altri inquinanti. Successivamente è stata valutata, in modo molto conservativo, l’entità delle emissioni ai camini dell’impianto di cogenerazione. Essendo queste l’unico fattore di pressione sull’ambiente circostante, è stato valutato tramite un modello semplificato di dispersione gaussiana, che il loro contributo alla qualità dell’aria è generalmente una frazione modesta del valore degli SQA. Per gli ossidi di azoto è necessario un livello di attenzione superiore rispetto ad altri inquinanti, come il monossido di carbonio e le polveri sottili, in quanto i picchi di concentrazione sottovento possono raggiungere frazioni elevate (fino al 60%) del valore limite orario della qualità dell’aria, fissato dal D.Lgs 155/2010. Infine, con riferimento all’ energia elettrica producibile sono state valutate le emissioni che sarebbero generate sulla base delle prestazioni del parco elettrico nazionale: tali emissioni sono da considerare evitate in quanto l’energia prodotta nel sito in esame deriva da fonti rinnovabili e non da fonti convenzionali. In conclusione, completando il quadro di emissioni evitate e indotte dalla modifica dell’impianto, si deduce che l’impatto sull’ambiente non modificherà in maniera significativa le condizioni dell’aria nella zona, determinando una variazione percentuale rispetto agli inquinanti emessi a livello regionale inferiore all’1% per tutti gli inquinanti considerati (CO, PM10, NOX, NMCOV). Il vantaggio più significativo riguarda una riduzione di emissioni di CO2 dell’ordine delle migliaia di tonnellate all’anno; questo risultato è importante per la riduzione di emissione dei gas serra in atmosfera e risulta in accordo con la logica dell’utilizzo di biomasse per la produzione di energia. Dal presente elaborato si evince infine come l’utilizzo del biogas prodotto dalla digestione anaerobica della Frazione Organica dei Rifiuti Solidi Urbani non comporti solo un vantaggio dal punto di vista economico, grazie alla presenza degli incentivi nazionali, ma soprattutto dal punto di vista ambientale, grazie alla riduzione notevole dei gas serra in atmosfera, in accordo con gli obiettivi europei e mondiali, e grazie al recupero di rifiuti organici per la produzione di energia e compost di qualità.
Resumo:
Progettazione del telaio di una macchina automatica formatrice per brik. Per giungere a tale risultato è stato fondamentale risalire alla definizione delle leggi di moto e dei sistemi a camme generanti il movimento delle parti, per poter calcolare correttamente i carichi in gioco sollecitanti la struttura.
Resumo:
Dopo aver introdotto l'argomento della certificazione energetica attraverso l'analisi delle direttive europee in materia, delle legislazioni nazionali, dei regolamenti regionali e delle procedure di calcolo (ITACA, LEED, etc.) si passa poi allo studio di un caso reale, la Masseria Sant'Agapito. All'inquadramento della masseria e delle attività connesse, segue un focus sull'edificio attualmente adibito a b&b, del quale si esegue la diagnosi sperimentale (termografia all'infrarosso, test di tenuta, etc.) e la certificazione con l'ausilio del software DOCET di ENEA. Si delineano quindi interventi atti alla riqualificazione energetica e alla riduzione dei consumi per tale edificio. In seguito si ipotizza un progetto di recupero funzionale, da attuarsi secondo i criteri della conservazione dell'esistente e della bioedilizia, impiegando materiali naturali e con un ciclo di vita a basso impatto ecologico. Alla progettazione d'involucro, segue la progettazione dell'impianto termico alimentato a biomassa, degli impianti solare termico (autocostruito) e fotovoltaico (inegrato in copertura) e del generatore mini-eolico. Tali tecnologie consentono, attraverso l'impiego di fonti di energia rinnovabile, la totale autosufficienza energetica e l'abbattimento delle emissioni climalteranti riferibili all'esercizio dell'edificio. La certificazione energetica di tale edificio, condotta questa volta con l'ausilio del software TERMUS di ACCA, consente una classificazione nella categoria di consumo "A".
Resumo:
La tesi di Dottorato studia il flusso sanguigno tramite un codice agli elementi finiti (COMSOL Multiphysics). Nell’arteria è presente un catetere Doppler (in posizione concentrica o decentrata rispetto all’asse di simmetria) o di stenosi di varia forma ed estensione. Le arterie sono solidi cilindrici rigidi, elastici o iperelastici. Le arterie hanno diametri di 6 mm, 5 mm, 4 mm e 2 mm. Il flusso ematico è in regime laminare stazionario e transitorio, ed il sangue è un fluido non-Newtoniano di Casson, modificato secondo la formulazione di Gonzales & Moraga. Le analisi numeriche sono realizzate in domini tridimensionali e bidimensionali, in quest’ultimo caso analizzando l’interazione fluido-strutturale. Nei casi tridimensionali, le arterie (simulazioni fluidodinamiche) sono infinitamente rigide: ricavato il campo di pressione si procede quindi all’analisi strutturale, per determinare le variazioni di sezione e la permanenza del disturbo sul flusso. La portata sanguigna è determinata nei casi tridimensionali con catetere individuando tre valori (massimo, minimo e medio); mentre per i casi 2D e tridimensionali con arterie stenotiche la legge di pressione riproduce l’impulso ematico. La mesh è triangolare (2D) o tetraedrica (3D), infittita alla parete ed a valle dell’ostacolo, per catturare le ricircolazioni. Alla tesi sono allegate due appendici, che studiano con codici CFD la trasmissione del calore in microcanali e l’ evaporazione di gocce d’acqua in sistemi non confinati. La fluidodinamica nei microcanali è analoga all’emodinamica nei capillari. Il metodo Euleriano-Lagrangiano (simulazioni dell’evaporazione) schematizza la natura mista del sangue. La parte inerente ai microcanali analizza il transitorio a seguito dell’applicazione di un flusso termico variabile nel tempo, variando velocità in ingresso e dimensioni del microcanale. L’indagine sull’evaporazione di gocce è un’analisi parametrica in 3D, che esamina il peso del singolo parametro (temperatura esterna, diametro iniziale, umidità relativa, velocità iniziale, coefficiente di diffusione) per individuare quello che influenza maggiormente il fenomeno.
Resumo:
Nel seguente elaborato verranno presentate le fasi di una corretta campagna di test a terra per sistemi spaziali, le verifiche da svolgere con relativi sistemi di misurazione, le normative di riferimento, nonché le linee guida per la stesura di un test report. Esso rappresenta un breve manuale per coloro che si apprestano ad esercitare test su sistemi prevalentemente spaziali. I principi discussi potranno eventualmente essere estesi anche in ambito aeronautico, ma, in questo caso, le normative di riferimento saranno diverse.
Resumo:
Questo lavoro di tesi, svolto presso AVIO S.P.A, sede di Colleferro (RM), divisione spazio, si inserisce all'interno del progetto Theseus, che ha come scopo finale lo sviluppo di un dimostratore di un motore ibrido a combustibile solido e ossidante gassoso. In particolare, in questo momento è richiesto un codice di calcolo, preciso ma allo stesso tempo abbastanza contenuto nei tempi di calcolo, che permetta l'analisi e le previsioni della balistica interna di tale motore ibrido. Il codice di calcolo si basa su una versione già esistente per i motori a solido (CUBIC) scritto in ambiente FORTRAN, ed è stato riadattato ai motori ibridi. In particolare è stata scritta una routine per il calcolo della velocità di combustione che tiene conto di diversi fattori, tra cui blowing e il fenomeno di entrainment presente in superficie. Sempre per quanto riguarda la velocità di combustione, nel suo calcolo si tiene conto dell'impingement dell'iniettore sul grano e del valore locale (per quanto riguarda la temperatura di fiamma) dell'O/F. Inoltre è stato anche modellato il comportamento termodinamico delle eventuali protezioni termiche presenti internamente al motore, considerando tutti i fenomeni di pirolisi e ablazione che caratterizzano tali materiali. In fine il modello completo è stato testato e validato grazie al fatto che si disponeva di alcuni tiri al banco di un motore ibrido, effettuati presso il dipartimento di Ingegneria Aerospaziale dell'Università di Napoli Federico II.
Resumo:
L’attività di ricerca contenuta in questa tesi si è concentrata nello sviluppo e nell’implementazione di tecniche per la co-simulazione e il co-progetto non lineare/elettromagnetico di sistemi wireless non convenzionali. Questo lavoro presenta un metodo rigoroso per considerare le interazioni tra due sistemi posti sia in condizioni di campo vicino che in condizioni di campo lontano. In sostanza, gli effetti del sistema trasmittente sono rappresentati da un generatore equivalente di Norton posto in parallelo all’antenna del sistema ricevente, calcolato per mezzo del teorema di reciprocità e del teorema di equivalenza. La correttezza del metodo è stata verificata per mezzo di simulazioni e misure, concordi tra loro. La stessa teoria, ampliata con l’introduzione degli effetti di scattering, è stata usata per valutare una condizione analoga, dove l’elemento trasmittente coincide con quello ricevente (DIE) contenuto all’interno di una struttura metallica (package). I risultati sono stati confrontati con i medesimi ottenibili tramite tecniche FEM e FDTD/FIT, che richiedono tempi di simulazione maggiori di un ordine di grandezza. Grazie ai metodi di co-simulazione non lineari/EM sopra esposti, è stato progettato e verificato un sistema di localizzazione e identificazione di oggetti taggati posti in ambiente indoor. Questo è stato ottenuto dotando il sistema di lettura, denominato RID (Remotely Identify and Detect), di funzioni di scansione angolare e della tecnica di RADAR mono-pulse. Il sistema sperimentale, creato con dispositivi low cost, opera a 2.5 GHz ed ha le dimensioni paragonabili ad un normale PDA. E’ stato sperimentata la capacità del RID di localizzare, in scenari indoor, oggetti statici e in movimento.
Resumo:
"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.
Resumo:
Studio di una lamella di acciaio di dimensioni relativamente ridotte, a cui è incollato un attuatore piezoelettrico che ne causa la vibrazione, sfruttando il fenomeno della risonanza. Tale struttura possiede numerose peculiarità geometriche e di funzionamento che ne determinano il comportamento dinamico. Ci si prefigge l’obiettivo di studiare, con l’ausilio di prove sperimentali, il comportamento vibratorio del sistema, al fine di realizzare un modello agli elementi finiti che ne simuli il funzionamento e che sia impiegabile nella previsione degli effetti di modifiche strutturali e dinamiche.
Resumo:
Le tecniche di polimerizzazione radicalica vivente hanno acquisito negli ultimi anni grande risonanza presso la comunità scientifica, grazie alla loro versatilità sia in termini di monomeri utilizzabili, che di condizioni operative. Oltre a ciò, esse permettono un buon controllo del peso molecolare e della struttura chimica del polimero e prevedono anche la possibilità di funzionalizzare facilmente i gruppi terminali delle catene. Tra queste tecniche, la Reversible Addition–Fragmentation chain Transfer polymerization (RAFT) risulta essere una delle più conosciute ed utilizzate, in quanto permette di ottenere materiali funzionalizzati con architetture molecolari particolarmente sofisticate e/o strutture in grado di autoorganizzarsi spazialmente. In questo contesto, sono stati sintetizzati mediante RAFT dei copolimeri anfifilici contenenti cromofori azobenzenici, in grado di autoassemblarsi in micelle sensibili a stimoli esterni, quali variazioni di temperatura e irraggiamento luminoso ad una adeguata lunghezza d’onda.
Resumo:
Le grotte marine sono habitat molto particolari che presentano situazioni molto diverse da quelle riscontrabili nell’ambiente esterno. La variabilità nella struttura geomorfologica, la topografia, la profondità, l’orientamento e l’idrodinamismo rappresentano una vasta gamma di situazioni che consentono la presenza di popolamenti caratteristici, la cui unicità determina l’importanza della loro salvaguardia. La composizione delle comunità dipende fortemente dall'arrivo dei propaguli dall'esterno, e non solo dalla riproduzione di adulti presenti. Quindi, per determinare la struttura e la dinamica delle popolazioni marine, è di fondamentale importanza comprendere i processi che agiscono sul reclutamento. In particolare per gli organismi sessili la fase larvale rappresenta l'unico stadio di dispersione. Lo scopo di questo lavoro è analizzare il reclutamento dei popolamenti bentonici sulle pareti laterali e sulla volta della grotta sottomarina della Colombara, nell’area marina protetta di Portofino (Genova), per valutare la loro diversità specifica, abbondanza e distribuzione. Per far ciò sono stati posti 14 pannelli quadrati in forex PVC all’interno della grotta (8 sulla volta e 6 sulle pareti laterali) per un periodo di tempo di venti mesi. L’abbondanza degli organismi è stata stimata in termini di ricoprimento percentuale utilizzando un reticolo di 400 sottoquadrati da 1 cm². Le possibili differenze tra le strutture dei popolamenti, l’abbondanza delle specie e gli indici di diversità tra parete e volta della grotta sono state testate con l’analisi della varianza basata su permutazioni (PERMANOVA) utilizzando il software PRIMER 6. Dai risultati ottenuti sono emerse differenze qualitative e quantitative nella distribuzione dei popolamenti fra la volta e le pareti della grotta. Analizzando le singole specie, è possibile osservare come molte di queste tendano a reclutare maggiormente sulla volta rispetto alle pareti. In generale, la distribuzione degli organismi dipende, oltre che dai più conosciuti gradienti ambientali (idrodinamismo, luce ecc) dai processi ecologici. Considerando che i fattori ambientali ed ecologici interagiscono nel definire la struttura dei popolamenti e sono interdipendenti tra loro, possiamo ipotizzare che le distribuzioni spaziali osservate per le diverse specie dipendano in gran parte dall’ecologia larvale, che porta ad un più elevato tasso di reclutamento sulla volta piuttosto che sulle pareti della grotta.
Resumo:
Lo scheletro è un tessuto dinamico, capace di adattarsi alle richieste funzionali grazie a fenomeni di rimodellamento ed alla peculiare proprietà rigenerativa. Tali processi avvengono attraverso l’azione coordinata di osteoclasti ed osteoblasti. Queste popolazioni cellulari cooperano allo scopo di mantenere l’ equilibrio indispensabile per garantire l’omeostasi dello scheletro. La perdita di tale equilibrio può portare ad una diminuzione della massa ossea e, ad una maggiore suscettibilità alle fratture, come avviene nel caso dell’osteoporosi. E’ noto che, nella fisiopatologia dell’osso, un ruolo cruciale è svolto da fattori endocrini e paracrini. Dati recenti suggeriscono che il rimodellamento osseo potrebbe essere influenzato dal sistema nervoso. L’ipotesi è supportata dalla presenza, nelle vicinanze dell’osso, di fibre nervose sensoriali responsabili del rilascio di alcuni neuro peptidi, tra i quali ricordiamo la sostanza P. Inoltre in modelli animali è stato dimostrato il diretto coinvolgimento del sistema nervoso nel mantenimento dell’omeostasi ossea, infatti ratti sottoposti a denervazione hanno mostrato una perdita dell’equilibrio esistente tra osteoblasti ed osteoclasti. Per tali ragioni negli ultimi anni si è andata intensificando la ricerca in questo campo cercando di comprendere il ruolo dei neuropeptidi nel processo di differenziamento dei precursori mesenchimali in senso osteogenico. Le cellule stromali mesenchimali adulte sono indifferenziate multipotenti che risiedono in maniera predominante nel midollo osseo, ma che possono anche essere isolate da tessuto adiposo, cordone ombelicale e polpa dentale. In questi distretti le MSC sono in uno stato non proliferativo fino a quando non sono richieste per processi locali di riparo e rigenerazione tessutale. MSC, opportunamente stimolate, possono differenziare in diversi tipi di tessuto connettivo quali, tessuto osseo, cartilagineo ed adiposo. L’attività di ricerca è stata finalizzata all’ottimizzazione di un protocollo di espansione ex vivo ed alla valutazione dell’influenza della sostanza P, neuropeptide presente a livello delle terminazioni sensoriali nelle vicinanze dell’osso, nel processo di commissionamento osteogenico.
Resumo:
L’obiettivo del presente lavoro è verificare l’affidabilità di una parte di macchina radiologica di Cefla Dentale, nello specifico del gruppo di fissaggio paziente, attraverso la valutazione sperimentale della risposta strutturale della stessa. Partendo dall’analisi dell’architettura e del funzionamento dei singoli sottosistemi del gruppo, sono stati definiti gli obiettivi (in relazione alle prestazioni desiderate) e la tipologia di prova; a seguire, si è passati alla pianificazione dei test, comprendente l’individuazione dei parametri da monitorare per la verifica finale, la definizione dei carichi nominali, del numero di cicli di funzionamento (corrispondenti alla vita utile media) e la definizione di attrezzature idonee allo scopo specifico. L’intento è stato quello di eseguire i test con contrazione dei tempi di prova, utilizzando come fattori di accelerazione la frequenza di funzionamento unitamente all’applicazione di opportuni sovraccarichi, con il duplice scopo di fare emergere eventuali elementi critici ma in un tempo nettamente inferiore a quello reale di funzionamento della macchina.
Resumo:
La Colonia Reggiana, situata a Riccione presso la foce del fiume Marano, è stata costruita nel 1934, dal progetto dell’arch. C. Costantini. Nata come colonia marina per i bambini di Reggio Emilia, ha mantenuto la sua funzione fino agli anni ‘80, quando, in seguito al passaggio di proprietà dalla regione Emilia Romagna al comune di Riccione, è caduta in disuso. Dal 1989 una parte dell’edificio ha ospitato associazioni di sport acquatici fino all’estate del 2012, quando è stato vietato l’accesso alla colonia a scopo cautelativo, a causa dell’attività sismica che ha colpito la regione Emilia Romagna. La Colonia si inserisce in una porzione periferica del comune di Riccione. La zona del Marano, caratterizzata da una concentrazione elevata di colonie marine, si trova in un’area di confine tra i comuni di Riccione e di Rimini, caratterizzata da un’interruzione del waterfront, da una minore densità di edifici e da una natura urbanistica irrisolta, nonostante la posizione strategica di ‘porta della città’ e il pregio di essere una delle ultime zone libere lungo la costa. In particolare, l’ambito di interesse è l’area delimitata a est dal mare, a ovest dalla linea ferroviaria, a sud dal fiume Marano e a nord dal confine comunale, che coincide con il Rio dell’Asse. La pianificazione comunale, in accordo con le indicazioni di livello sovraordinato, prevede la riqualificazione degli ampi spazi lasciati incolti e il potenziamento della zona attraverso uno sviluppo di carattere alberghiero, ma anche residenziale e di servizi di vicinato. L’area dovrebbe perdere il suo carattere isolato dal resto della città e il progetto presentato da questa tesi, riportando le indicazioni comunali per lo sfruttamento delle aree verdi secondo piani già approvati, propone per la Colonia Reggiana una funzione diversa da quella alberghiera prevista. Mantenendo il carattere ricettivo richiesto dalla pianificazione urbanistica, il progetto si prefigge di riqualificare l’edificio convertendolo in una residenza socio-assistenziale per anziani. La funzione risulta adatta alla tipologia della colonia, nata come residenza estiva per bambini a scopo curativo, oltre che ricreativo, rispondendo quindi alla natura dell’edificio. La posizione, inoltre, appare positiva e piacevole per la permanenza di persone anziane che, nel periodo più avanzato della propria vita, possono godere del paesaggio e dell’aria marina, invece di ritrovarsi in edifici isolati. Il progetto di recupero della colonia consiste nel restauro o sostituzione delle parti degradate, conservando l’immagine e la natura del progetto, e nel miglioramento delle prestazioni dell’involucro in modo tale che, inserendo un sistema impiantistico adeguato, si possa raggiungere una buona prestazione energetica. La tesi si propone di valutare la possibilità di recuperare la colonia sia dal punto funzionale che da quello energetico, nel rispetto delle normative vigenti.