446 resultados para Nuove Attribuzioni


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Palazzo delle Cento Finestre è situato nel comune di Sarsina, sulla sommità del colle prospiciente la città, in una posizione strategica da cui si domina gran parte della valle. E' sorto come presidio militare in età medievale (è già citato nella "Descriptio Romandiole" del 1371 con il nome "Castrum Casalecli"), ma ha visto nel corso della storia il succedersi di numerose trasformazioni. Nel Cinquecento, con l'avvento dei nuovi signori, i Conti Bernardini della Massa, è stato trasformato in palazzo e residenza nobiliare e, nell'Ottocento, a seguito della morte dell'ultima erede della famiglia Bernardini, il palazzo è stato convertito in casa colonica e negli anni è diventato residenza di più nuclei familiari. Nonostante le numerose trasformazioni subite, il manufatto conserva il proprio fascino storico a partire dall'androne di ingresso, coperto da una volta a botte su cui sono ancora visibili tracce di alcuni affreschi, da qui è possibile accedere al cortile interno o entrare nella piccola chiesa, nella quale è visibile la tomba del conte Achille Bernardini. All'interno si sono conservati preziosi ambienti, tra cui stanze voltate su tutti i piani, un nobile scalone in pietra ed un ampio salone contenente un camino su cui è scolpito lo stemma dei Conti Bernardini. Il progetto di conservazione e valorizzazione prevede l'inserimento di un ristorante al piano terra, un B&B al primo piano e di una cantina-enoteca al piano seminterrato. In questo modo vengono rispettate le destinazioni d'uso originarie del palazzo, permettendo di limitare il più possibile l'invasività degli interventi previsti. Sono stati approfonditi il tema impiantistico, tramite un accurato rilievo degli impianti esistenti e il progetto di nuove soluzioni integrate, e paesaggistico, con la riorganizzazione dell'area circostante il manufatto e il progetto di percorsi nel bosco limitrofo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo lavoro di tesi consiste nel valutare l’efficacia di inibizione delle HDAC e la selettività per le cellule tumorali di nuove molecole basate su coniugati poliamminici (PC1, PC2, PC3, PC4, PC5). I modelli sperimentali utilizzati saranno una linea cellulare tumorale di glioblastoma umano (U87), paragonata a una linea cellulare sana di fibroblasti fetali umani (IMR90). Il progetto nasce dalla collaborazione con la Prof.ssa Anna Minarini del Dipartimento di Farmacia e BioTecnologie di Bologna e con il Dott. Andrea Milelli del Dipartimento di Scienze per la Qualità della Vita di Rimini che hanno progettato e sintetizzato i composti poliamminici utilizzati negli esperimenti condotti nel laboratorio di Ingegneria Cellulare e Molecolare “S. Cavalcanti” a Cesena. Gli obiettivi del progetto consistono nel valutare i potenziali vantaggi che sembrano offrire le poliammine se coniugate a molecole con specifiche funzioni antitumorali, quali l’acido idrossamico e il gruppo intercalante il DNA, naftalene-diimide. L’aggiunta della coda poliamminica al composto, infatti, permetterebbe alla molecola risultante di sfruttare il sistema di trasporto delle poliammine, tipicamente sovraespresso o iperattivo nelle cellule neoplastiche, favorendo così l’ingresso in cellula del farmaco e conferendogli selettività per le cellule tumorali. Inoltre, l’affinità elettrostatica che intercorre tra la coda policationica poliamminica e il DNA, carico negativamente, direzionerebbe con maggior efficacia l’intera molecola, compresa la parte intercalante e l’acido idrossamico (HDACi), verso il loro bersaglio, la doppia elica dell’acido nucleico e le HDAC. Gli effetti dei PC valutati in questo lavoro di tesi comprendono l’influenza dei farmaci sulla vitalità cellulare e l’efficacia di inibizione delle HDAC. Si effettueranno test di crescita cellulare in seguito ai trattamenti farmacologici per confrontare i diversi composti poliamminici, individuare quelli con maggior effetto citotossico e stabilire se il tipo di trattamento risulti idoneo per il proseguimento dell’indagine. Il grado di inibizione delle HDAC, relativo ai diversi farmaci, verrà valutato indirettamente mediante la tecnica del Western Blotting quantificando il livello di iperacetilazione istonica globale indotta. I vantaggi che queste nuove molecole potenzialmente possiedono e che andranno verificati con ulteriori studi, inducono ad attribuire loro un grande potenziale per la terapia antitumorale, come induttori dell’apoptosi e/o riprogrammazione dell’assetto epigenetico, risultante nella riattivazione di geni oncosoppressori silenziati nelle cellule neoplastiche. L’azione antitumorale di queste molecole potrà essere più efficace se combinata con altri farmaci, quali chemioterapici standard o demetilanti del DNA. Inoltre la variazione della coda poliamminica potrà essere utile per lo sviluppo di inibitori specifici per le diverse isoforme delle HDAC. La selettività per le cellule tumorali e l’affinità per il DNA di questi nuovi composti potrebbe infine limitare gli eventuali effetti collaterali in clinica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro è parte integrante di un progetto di ricerca del Ministero della Salute ed è stato sviluppato presso la Fisica Sanitaria ed il reparto di Radioterapia Oncologica dell’Azienda Ospedaliero Universitaria di Modena. L’obiettivo è la realizzazione di modelli predittivi e di reti neurali per tecniche di warping in ambito clinico. Modifiche volumetrico-spaziali di organi a rischio e target tumorali, durante trattamenti tomoterapici, possono alterare la distribuzione di dose rispetto ai constraints delineati in fase di pianificazione. Metodologie radioterapiche per la valutazione di organ motion e algoritmi di registrazione ibrida permettono di generare automaticamente ROI deformate e quantificare la divergenza dal piano di trattamento iniziale. Lo studio si focalizzata sulle tecniche di Adaptive Radiation Therapy (ART) mediante la meta-analisi di 51 pazienti sottoposti a trattamento mediante Tomotherapy. Studiando il comportamento statistico del campione, sono state generate analisi predittive per quantificare in tempo reale divergenze anatomico dosimetriche dei pazienti rispetto al piano originale e prevedere la loro ripianificazione terapeutica. I modelli sono stati implementati in MATLAB, mediante Cluster Analysis e Support Vector Machines; l’analisi del dataset ha evidenziato il valore aggiunto apportabile dagli algoritmi di deformazione e dalle tecniche di ART. La specificità e sensibilità della metodica è stata validata mediante l’utilizzo di analisi ROC. Gli sviluppi del presente lavoro hanno aperto una prospettiva di ricerca e utilizzo in trattamenti multicentrici e per la valutazione di efficacia ed efficienza delle nuove tecnologie in ambito RT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel presente lavoro di tesi magistrale sono stati depositati e caratterizzati sottili film di ossido di alluminio, Al2O3, (di spessore compreso tra 3-30 nm) su un substrato di FZ-Si drogato p. La deposizione è avvenuta mediante plasma ALD (Atomic Layer Depostion). La tecnica spettroscopica EPR (Electron Paramagnetic Resonance) è stata utilizzata per studiare l’interfaccia Si/Al2O3 con lo scopo di scoprire l’origine della formazione di densità di carica negativa Qf all’interfaccia: tale carica negativa induce una passivazione per effetto di campo ed è quindi la ragione per cui il dielettrico Al2O3 risulta essere un ottimo materiale passivante. Si è deciso di variare alcuni parametri, come lo spessore dello strato di Al2O3, lo spessore dello strato intermedio di ossido di silicio, depositato mediante ossidazione termica (dry thermal oxidation), e la superficie del substrato di silicio. Sono stati realizzati cinque differenti gruppi di campioni: per ciascuno di essi sono state impiegate varie tecniche di caratterizzazione, come la QSSPC (Quasi Steady State Photoconuctance) e la tecnica di spettroscopia ottica SE (spettroscopic ellipsometry). Per ogni gruppo sono stati riportati gli spettri EPR ottenuti ed i rispettivi fit, da cui è stato possibile risalire ai fattori giromagnetici di spin g, riportati in tabelle con le loro possibili attribuzioni. E’ stato dimostrato che la presenza di uno strato di ossido di silicio tra il substrato di silicio e lo strato di ossido di alluminio risulta essere fondamentale per la formazione di densità di carica negativa all’interfaccia: aumentando lo spessore dello strato di SiOx (nel range 1-30 nm) si assiste ad una diminuzione di carica negativa Qf. Analizzando gli spettri EPR, è stato possibile concludere che all’interfaccia Si/Al2O3 sono presenti difetti caratteristici dell’interfaccia Si/SiOx. Le nostre osservazioni, dunque, sono coerenti con la formazione di uno strato di ossido di silicio tra Si e Al2O3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi abbiamo ideato e implementato un nuovo social network combinando in una sola applicazione per dispositivi mobili alcune nuove idee con altre già esistenti, ma ancora poco sviluppate. Dopo aver analizzato le app attualmente esistenti, si sono definite le caratteristiche dell'applicazione che si vuole creare, traendo ispirazione da Snapchat, Foursquare e Whisper. L'obiettivo è un'applicazione che permette agli utenti di inviare messaggi con testo e immagini geotaggati sulla loro posizione. Essi saranno anonimi, dato che gli utenti avranno la possibilità di creare e utilizzare facilmente più identità. I messaggi potranno essere votati e commentati e avranno una durata definita dall'autore, dopo di che si autodistruggeranno. Tutti i messaggi saranno visibili su una mappa che li mostrerà nel punto in cui l'autore si trovava quando li ha inviati. Gli utenti riceveranno una notifica per i nuovi messaggi inviati nelle loro vicinanze. I primi mesi di lavoro sul progetto sono stati dedicati al perfezionamento dell'idea originale e alla realizzazione della parte server. In questa fase è stato acquisito e configurato un Virtual Private Server, è stato progettato e creato il database MySql, ed è stata implementata la logica applicativa lato server in PHP. Successivamente, ci si è concentrati sulla progettazione e realizzazione dell'applicazione stessa, scegliendo la piattaforma Android e programmando in linguaggio Java. In questa fase si è definita e implementata l'interfaccia utente e la logica applicativa lato client. Giunti ad un buon livello di sviluppo, si è cominciato a distribuire limitatamente una versione alpha dell'applicazione per ottenere feedback dagli utenti, soprattutto riguardanti l'usabilità. La seguente tesi descrive in dettaglio l'idea di partenza, l'architettura del progetto e le funzionalità realizzate, per concludersi con una previsione degli sviluppi futuri. Vi è inoltre in allegato il codice sorgente dell'applicazione Android realizzata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’acceleratore di particelle LHC, al CERN di Ginevra, permette studi molto rilevanti nell'ambito della fisica subnucleare. L’importanza che ricopre in questo campo il rivelatore è grandissima ed è per questo che si utilizzano tecnologie d’avanguardia nella sua costruzione. É altresì fondamentale disporre di un sistema di acquisizione dati quanto più moderno ma sopratutto efficiente. Tale sistema infatti è necessario per gestire tutti i segnali elettrici che derivano dalla conversione dell’evento fisico, passaggio necessario per rendere misurabili e quantificabili le grandezze di interesse. In particolare in questa tesi viene seguito il lavoro di test delle schede ROD dell’esperimento ATLAS IBL, che mira a verificare la loro corretta funzionalità, prima che vengano spedite nei laboratori del CERN. Queste nuove schede gestiscono i segnali in arrivo dal Pixel Detector di ATLAS, per poi inviarli ai computer per la successiva elaborazione. Un sistema simile era già implementato e funzionante, ma il degrado dei chip ha causato una perdita di prestazioni, che ha reso necessario l’inserimento di un layer aggiuntivo. Il nuovo strato di rivelatori a pixel, denominato Insertable Barrel Layer (IBL), porta così un aggiornamento tecnologico e prestazionale all'interno del Pixel Detector di ATLAS, andando a ristabilire l’efficacia del sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diffusione di Internet negli ultimi anni e lo sviluppo sempre crescente nell'ambito delle reti di telecomunicazione, hanno portato oggi ad una vera e propria esplosione della diffusione di nuove tecnologie di trasmissione. Inizialmente il protocollo di trasporto dati, TCP, non era stato pensata per operare in scenari diversi da quello della rete fissa. Con l'introduzione di nuovi scenari, come quello wireless, wimax e satellitare, si è notato come le prestazioni peggiorino in questi ambienti. Proprio per questo, il protocollo TCP ha subito parecchie modifiche negli anni e sono state realizzate alternative atte a migliorare l'inefficienza del protocollo. Le modifiche, a cui il TCP è stato sottoposto, sono basate su alcuni criteri di valutazione e l'introduzione di meccanismi come il controllo del flusso o il controllo di congestione in modo da migliorare le performance in ambienti “ostili”. Molti ricercatori si sono concentrati nello studio e modifica di questi nuovi meccanismi cercando di adattare al meglio il TCP secondo diversi scenari di rete, trascurando così altri criteri un pò meno noti. Dopo aver introdotto lo scenario con la descrizione del protocollo TCP, andremo a descrivere e illustrare questi “nuovi criteri” presentando alcuni recenti studi effettuati, in seguito andremo a presentare un nuova versione del protocollo chiamata Early Warning TCP e nell'ultimo capitolo andremo a presentare delle conclusioni degli studi presentati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'oggetto della tesi è la costruzione di un modello organizzativo e funzionale per le nuove strutture previste a livello nazionale per l'assistenza primaria e denominate Unità Complesse di Cure Primarie (UCCP). Il modello è composto da un profilo organizzativo, un'architettura funzionale e un sistema di indicatori per il monitoraggio di un insieme di prestazioni rilevanti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I processi microbiologici rivestono una grande importanza nello sviluppo di combustibili e sostanze chimiche da fonti rinnovabili (biomassa), quali: il biometano e le bioplastiche, come i poli(idrossialcanoati), PHA. I PHA sono poliesteri ottenuti per condensazione di 3-idrossiacidi, il più comune dei quali è il poli(3-idrossibutirrato, PHB). Gli alti costi di produzione del PHA da colture microbiche singole ha portato a valutare nuove strategie, tra cui l’utilizzo di colture microbiche miste (MMC) e substrati di scarto. Il bio-olio ottenuto dalla pirolisi di biomassa potrebbe essere un substrato interessante per la produzione di biogas e PHA. Gli acidi a catena corta (acidi grassi volatili, VFA), infatti, sono i prodotti intermedi nella produzione sia di biogas che di PHA. L’analisi di questi ultimi viene normalmente effettuata tramite GC-FID o GC-MS. La degradazione termica (pirolisi, Py) di PHA produce acidi alchenoici caratteristici, come l’acido crotonico. Il metodo tradizionale per la determinazione del PHA è la metanolisi seguita da un’analisi GC-MS, una procedura laboriosa con uso di solventi clorurati e sostanze corrosive. Lo scopo principale di questa tesi è stato quello di sviluppare un nuovo metodo di analisi dei PHA. Il metodo studiato si basa sulla pirolisi diretta della biomassa e determinazione degli acidi alchenoici prodotti dalla degradazione del PHA in GC-FID. La pirolisi analitica è stata studiata tramite analisi di polimeri puri (per la calibrazione) e poi è stata applicata a campioni batterici derivanti da MMC e a ceppi selezionati. Il confronto con il metodo convenzionale ha dimostrato che la Py/GC-FID è un metodo valido per l’identificazione dei PHA e per la loro quantificazione nelle matrici batteriche. Il pre-trattamento del campione è minimo e non richiede l’uso di solventi e reagenti chimici. Inoltre, è stata applicata una tecnica di analisi dei VFA nei test di biometanazione basata sull’estrazione con una microquantità di dimetilcarbonato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’intelligenza artificiale, ovvero lo studio e la progettazione di sistemi intelligenti, mira a riprodurre alcuni aspetti dell’intelligenza umana, come il linguaggio e il ragionamento deduttivo, nei computer. La robotica, invece, cerca spesso di ricreare nei robot comportamenti adattativi, come l’abilità di manipolare oggetti o camminare, mediante l’utilizzo di algoritmi in grado di generare comportamenti desiderati. Una volta realizzato uno di questi algoritmi specificamente per una certa abilità, si auspica che tale algoritmo possa essere riutilizzato per generare comportamenti più complessi fino a che il comportamento adattativo del robot non si mostri ad un osservatore esterno come intelligente; purtroppo questo non risulta sempre possibile e talvolta per generare comportamenti di maggiore complessità è necessario riscrivere totalmente gli algoritmi. Appare quindi evidente come nel campo della robotica l’attenzione sia incentrata sul comportamento, perché le azioni di un robot generano nuove stimolazioni sensoriali, che a loro volta influiscono sulle sue azioni future. Questo tipo di intelligenza artificiale (chiamata propriamente embodied cognition) differisce da quella propriamente detta per il fatto che l’intelligenza non emerge dall’introspezione ma dalle interazioni via via più complesse che la macchina ha con l’ambiente circostante. Gli esseri viventi presenti in natura mostrano, infatti, alcuni fenomeni che non sono programmati a priori nei geni, bensì frutto dell’interazione che l’organismo ha con l’ambiente durante le varie fasi del suo sviluppo. Volendo creare una macchina che sia al contempo autonoma e adattativa, si devono affrontare due problemi: il primo è relativo alla difficoltà della progettazione di macchine autonome, il secondo agli ingenti costi di sviluppo dei robot. Alla fine degli anni ’80 nasce la robotica evolutiva che, traendo ispirazione dall’evoluzione biologica, si basa sull’utilizzo di software in grado di rappresentare popolazioni di robot virtuali e la capacità di farli evolvere all’interno di un simulatore, in grado di rappresentare le interazioni tra mente e corpo del robot e l’ambiente, per poi realizzare fisicamente solo i migliori. Si utilizzano algoritmi evolutivi per generare robot che si adattano, anche dal punto di vista della forma fisica, all’ambiente in cui sono immersi. Nel primo capitolo si tratterà di vita ed evoluzione artificiali, concetti che verranno ripresi nel secondo capitolo, dedicato alle motivazioni che hanno portato alla nascita della robotica evolutiva, agli strumenti dei quali si avvale e al rapporto che ha con la robotica tradizionale e le sue declinazioni. Nel terzo capitolo si presenteranno i tre formalismi mediante i quali si sta cercando di fornire un fondamento teorico a questa disciplina. Infine, nel quarto capitolo saranno mostrati i problemi che ancora oggi non hanno trovato soluzione e le sfide che si devono affrontare trattando di robotica evolutiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il sistema ferroviario ha sempre ricoperto un ruolo rilevante nel nostro Paese sia per il trasporto di persone, sia per il trasporto di merci: risulta, quindi, essenziale per il commercio e per il turismo. A differenza della strada in cui i veicoli circolano “a vista”, una ferrovia richiede che i sistemi di distanziamento dei treni siano indipendenti dalla visibilità dei veicoli, poiché gli spazi di frenatura sono solitamente molto maggiori della distanza di visibilità stessa. Per questo motivo i sistemi di segnalamento e sicurezza ricoprono un ruolo di primo piano. Nel tempo sono stati effettuati ingenti investimenti che hanno portato all'impiego di nuove tecnologie le quali hanno permesso la progettazione di sistemi safety critical contenenti componenti informatici hardware e software. La caratteristica principale di tali sistemi è la proprietà di non arrecare danno alla vita umana o all'ambiente: tale proprietà viene comunemente associata al termine anglosassone safety per distinguerla dall’accezione di "protezione da violazioni all'integrità del sistema" che il termine "sicurezza" usualmente assume. Lo sviluppo economico e tecnologico a cui abbiamo assistito nell’ultimo ventennio ha inevitabilmente reso tali sistemi ancora più sofisticati e di conseguenza complessi, richiedendo allo stesso tempo requisiti e garanzie di buon funzionamento sempre più marcati ed articolati. È proprio a questi motivi che si devono gli studi su quella che viene definita la dependability dei sistemi di computazione, verso cui si concentrano e convogliano buona parte degli sforzi e delle risorse in fase di ricerca e progettazione. Il lavoro di tesi che segue è stato svolto in collaborazione con due grandi imprese del territorio nazionale: RFI (Reti Ferroviarie Italiane) e Sirti. Inizialmente abbiamo interagito con RFI per entrare nell’ambiente ferroviario ed assimilarne il lessico e i bisogni. All’interno di RFI è stato effettuato un tirocinio nel quale ci siamo occupati del “processo off-line” riguardante la gestione in sicurezza di una stazione; tale attività deve essere effettuata da RFI prima della messa in esercizio di una nuova stazione. Per far questo abbiamo dovuto utilizzare i programmi di preparazione dei dati messi a disposizione da Sirti. In un secondo momento abbiamo approfondito l’argomentazione della safety interfacciandoci con Sirti, una delle società che forniscono sistemi safety critical computerizzati per il controllo delle stazioni. In collaborazione con essa ci siamo addentrati nel loro sistema scoprendo le loro scelte implementative e come hanno raggiunto i loro obiettivi di safety. Infine, ci siamo occupati dell'inserimento nel sistema di una nuova funzionalità, per aumentarne l’affidabilità e la sicurezza, e delle problematiche relative all'impiego del componente che la realizza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selvabella è un’area agricola appartenente a Finale Emilia, nella bassa modenese. Anticamente era un bosco, poi trasformato in terreno per coltivare la canapa tessile, attualmente una distesa di campi agricoli senza alcuna vegetazione, caratterizzata da architetture parzialmente e totalmente crollate a seguito del terremoto del 2012. L'obiettivo è quello di riportare l'antico bosco a Selvabella, e rifunzionalizzare l'intera area anche attraverso nuove architetture come un museo della canapa e un agriturismo, con un progetto che possa dare una identità a questo luogo, sempre dialogando con la natura e con il contesto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’oggetto di questa tesi è un intervento di rigenerazione, riqualificazione ed adeguamento di un comparto residenziale di circa 22 ettari a Corticella, zona del quartiere Navile, pianificato tramite il PEEP di Bologna del 1963 e realizzato tra gli anni 70 e 80 del secolo scorso. L'area si trova nella periferia nord di Bologna ai limiti con la campagna e comprende 34 fabbricati, di cui 27 residenziali. L'evoluzione economico sociale degli ultimi decenni ha causato l'insorgenza di diverse criticità dell'area, tra cui:  scarsa efficienza energetica degli edifici con elevati costi di esercizio;  inadeguatezza sismica degli edifici;  bassi livelli di comfort abitativo;  scarsa varietà dei tagli degli alloggi;  scarsa qualità degli spazi pubblici e di relazione;  mancanza di connessioni a livello urbano (sia in termini di continuità morfologica che di viabilità). L'obiettivo che si pone la tesi è quello di adeguare l'area alle nuove esigenze, in modo da proiettarla avanti nel tempo e renderla una zona vivibile oggi e in futuro, con un progetto che tenga conto della fattibilità dell'intervento e delle caratteristiche e delle risorse degli Enti e dei proprietari privati coinvolti nella gestione dell’area. Per ottenere questi risultati, il progetto ha riorganizzato i collegamenti urbani, che oggi rendono l'area una zona emarginata, e ha previsto la riqualificazione funzionale e prestazionale degli edifici, adottando due diverse ipotesi di progetto. Per quanto riguarda la situazione urbana, si è previsto di inserire nuovi elementi per migliorare la viabilità, in particolare nuovi percorsi ciclopedonali ed uno shared space che rimette in comunicazione l'area con il centro storico di Corticella. Per la riqualificazione degli edifici sono stati selezionati due edifici campione, rappresentativi delle situazioni e tipologie più ricorrenti nell’area, che sono stati affrontati con due approcci diversi. Dell’edificio che presenta le criticità più acute, si è valutata non conveniente una riqualificazione pesante e si è quindi previsto un intervento minimo di miglioramento dell’efficienza energetica e della distribuzione interna. Per il secondo edificio invece è stato progettato l’aggiornamento del taglio degli alloggi,l’adeguamento delle prestazioni energetiche fino a raggiungere la classe energetica A(originariamente classe G), il miglioramento delle capacità antisismiche e del comfort luminoso. Gli alloggi di standard decisamente superiore a quello attuale, la riconfigurazione dello spazio di pertinenza degli edifici come shared space, e la realizzazione di nuovi collegamenti urbani migliorano l’appetibilità e il valore immobiliare degli edifici, ma anche le condizioni ambientali e l’abitabilità dell’intera area di intervento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi propone un progetto di riqualificazione funzionale ed energetica del Polo ospedaliero civile di Castel San Pietro Terme, un complesso di edilizia sanitaria attivo dal 1870, che la AUSL proprietaria ha ora programmato di riqualificare. Il complesso, costituito da diversi edifici realizzati in epoche successive con un volume lordo riscaldato di 41670 m3, occupa un’area di 18415 m2. Sottoposto nel corso del tempo a ripetute modifiche e ampliamenti,oggi si presenta come un insieme eterogeneo di volumi, disorganici nell’aspetto ed interessati da importanti criticità: • prestazioni energetiche largamente inadeguate; • insufficiente resistenza alle azioni sismiche; • inefficiente distribuzione interna degli ambienti e delle funzioni. Partendo da un’analisi che dal complesso ospedaliero si estende sull’intera area di Castel San Pietro Terme, è stato definito un progetto che tiene conto delle peculiarità e delle criticità del luogo. Il progetto propone la riqualificazione dell’area antistante l’ingresso storico dell’ospedale tramite il collegamento diretto al parco fluviale, oggi interrotto da viale Oriani e da un parcheggio. Sul complesso edificato viene invece progettato un insieme di interventi differenziati, che rispondono all’obiettivo primario di adattare il polo ospedaliero a nuove funzioni sanitarie. La riorganizzazione prevede: • L’eliminazione del reparto di chirurgia; • L’adeguamento delle degenze a funzioni di hospice e lungodegenza per malati terminali; • L’ampliamento del progetto Casa della Salute che prevede locali ambulatoriali. Il progetto ha assunto questo programma funzionale,puntando a mantenere e riqualificare quanto più possibile l’esistente. E’ stato quindi previsto di: • Demolire il corpo del blocco operatorio. • Ridefinire volumetricamente il corpo delle degenze • Prevedere la costruzione di nuovi volumi per ospitare i poliambulatori. Per assicurare un adeguato livello di prestazioni,l’intervento ha puntato a far conseguire all’intero complesso la classe energetica A e ad adeguare la capacità di risposta al sisma, in particolare del corpo delle degenze, che presenta le condizioni più critiche. Le simulazioni eseguite con il software Termolog Epix3 attestano un valore di fabbisogno energetico finale pari a 5,10 kWh/m3 anno, con una riduzione del 92,7% rispetto ai livelli di consumo attuali. E' stata posta particolare attenzione anche al comfortdegli ambienti di degenza, verificato tramite l’utilizzo del software di simulazione energetica in regime dinamico IESVE che ha permesso di monitorare gli effetti ottenuti in relazione ad ogni scelta progettuale. I nuovi padiglioni sono stati progettati per integrare in modo funzionale i locali ambulatoriali ed alcuni ambienti dedicati alle terapie complementari per i lungodegenti. La tecnologia a setti portanti Xlam è stata preferita per la velocità di realizzazione. La sovrastante copertura costituita da una membrana di ETFE sostenuta da travi curve in legno lamellare, oltre ad assicurare il comfort ambientale tramite lo sfruttamento di sistemi passivi, permette di limitare i requisiti dell’involucro dei volumi sottostanti.