989 resultados para Tecnica de Fontan
Resumo:
La tecnologia MdP odierna risente di grosse limitazioni a causa di una inadeguata divulgazione, soprattutto a livello universitario, delle conoscenze sulle teorie dei processi e della progettazione di impianti ad essa legati. La conseguenza è l’accentramento del know-how all’interno delle aziende del settore (progettazione presse e impianti di sinterizzazione, sviluppo materie prime, progettazione stampi e cicli produttivi…) le quali, nel tempo, hanno creato al loro interno tecnici specializzati, laboratori di ricerca e sofisticati reparti R&D. Nonostante il risultato evidente oggi in Europa sia una buona preparazione tecnica da parte delle aziende operanti nel settore, la scarsa diffusione di conoscenze anche negli altri ambiti dell’ingegneria e della progettazione meccanica rende spesso difficile l’incontro tra due realtà che potrebbero invece aprire nuovi settori di produzione e/o il miglioramento di progetti noti. Questo lavoro è fondato sulla base di tali considerazioni e svolto interamente all’interno di una delle più importanti realtà industriali nazionali in questo campo: Sinteris S.p.A. (Bologna). Dopo una descrizione del processo classico, si passerà ad analizzare, tramite prove in laboratorio, il processo di calibratura di rotori pompa per circuiti lubrificanti in campo automotiv. Lo studio riguarda il rilievo e il confronto delle variazioni dimensionali ottenute a diverse percentuali di calibratura su rotori di diverse altezze (entro e oltre i limiti progettuali fino ad oggi realizzati in Sinteris) allo scopo di far luce sulle deformazioni plastiche che condizionano la conformità dei pezzi sinterizzati sottoposti a calibratura entro stampi rigidi di dimensioni note. Lo scopo ideale di questa ricerca è trovare una legge su base empirica che consenta all’Engineering di progettare stampi di calibratura e percentuali di schiacciamento che garantiscano, ad ogni montaggio, la conformità dimensionale di attuali e futuri progetti di pompe a lobi.
Resumo:
Solitamente i dati telemetrici vengono campionati a intervalli regolari. Alcuni parametri, se di maggiore interesse, vengono campionati con maggiore frequenza. Questa operazione non sempre è possibile a causa delle limitazioni di banda tra spazio e terra. Una pratica comune per rispettare tali limitazioni consiste nel ridurre il campionamento di dati di minor interesse in modo da poter analizzare più attentamente i dati interessati. Non si possono analizzare attentamente alcuni dati senza trascurarne degli altri. Per migliorare lo studio di alcuni dati e rispettare le limitazioni di banda è stato studiato e sviluppato presso ESOC (Centro europeo per le operazioni spaziali) la tecnica di ricampionamento frattale. Il ricampionamento frattale prende i campioni di dati di serie temporali originali e produce un insieme di minor numero di campioni, non necessariamente ad intervalli regolari, che ricorda la serie temporale originale, offrendo una garanzia di errore massimo configurabile. Questa tecnica offre la possibilità di campionare i dati con maggiore frequenza e precisione a bordo e di trasmettere poi a terra solo i campioni necessari per ricostruire il segnale originale con il livello desiderato di precisione e con importanti riduzioni di dati. Ciò significa che il ricampionamento frattale non solo permette di migliorare l’osservabilità dei dati ma anche di ridurre i requisiti di larghezza di banda.
Resumo:
In questa tesi inizialmente ci si è occupati di definire ed approfondire le caratteristiche della tecnologia Wi-Fi Direct, illustrandone il funzionamento, l’architettura e gli scenari di utilizzo. Successivamente è stata sviluppata un’applicazione basata su tale tecnologia, con lo scopo di fornire un servizio di disseminazione di messaggi d’aiuto in situazioni di emergenza o di catastrofi naturali, nelle quali la rete cellulare viene inevitabilmente meno. In queste occasioni c’è il bisogno di avere uno strumento che permetta di comunicare in maniera facile, veloce e che sia alla portata di tutti. Caratteristiche e qualità proprie di uno smartphone, dispositivo che oggigiorno è presente nelle tasche di ognuno di noi. L’obiettivo finale infatti, sarebbe quello di creare un applicativo che possa idealmente essere preinstallato in ogni nostro dispositivo, un servizio che sia diffuso, compreso ed utilizzabile istantaneamente da tutti, in modo tale da essere una sicurezza e un aiuto di vitale importanza in situazioni di pericolo. Per lo sviluppo di una tale applicazione ci si è basati sul sistema operativo Android, che è il più diffuso tra gli utenti di tutto il mondo. Nel primo capitolo ci si è occupati di di presentare ed approfondire la tecnologia Wi-Fi Direct, definendone gli ambiti generali di utilizzo e le problematiche che vengono affrontate. Nel secondo capitolo si prosegue con la presentazione della tecnologia in ambiente Android, descrivendo le API fornite da Google per l’utilizzo del servizio in questione. Nel terzo capitolo, dopo un’analisi dei progetti che coinvolgono tale tecnologia, viene illustrata l’applicazione creata, le sue funzionalità e caratteristiche ed eventuali casi d’uso. Nel quarto capitolo è stata inserita la parte più tecnica, dove illustro i problemi incontrati e le modalità di risoluzione degli stessi, insieme alle strutture ed agli oggetti messi a disposizione da Java che sono stati utilizzati. Infine nel capitolo conclusivo è stato fatto un riepilogo del lavoro svolto, indicando le difficoltà incontrate ed eventuali possibili miglioramenti e sviluppi futuri del mio progetto.
Resumo:
È possibile delineare un percorso operativo imprescindibile e necessario ad un intervento di restauro? Alla base di questa tesi vi è la volontà di definire una traccia leggera ma chiara, un iter metodologico pratico che tuttavia non appiattisca il restauro ad una mera disciplina tecnica ma lo consideri per quello che realmente è, un atto di progettazione dell’architettura, con le relative complessità e sfaccettature che contraddistinguono questo delicato esercizio. Ho tracciato la mia ipotesi di un percorso con l'aiuto di una bibliografia di riferimento, suddividendo in tappe il percorso in modo da renderlo più chiaro e leggibile. Dopodiché ho presentato tre esperienze, fatte nel corso di questi anni di studio, e ho comparato questi lavori con la metodologia definita precedentemente. Fine ultimo di questo elaborato è andare oltre le singole esperienze svolte ed estrapolare un filo conduttore per il progetto di restauro, che possa servire di qui in avanti, in esperienze future.
Resumo:
L’insufficienza renale cronica è una malattia di grande impatto sulla sanità pubblica. Il punto di approdo per la maggior parte dei pazienti, alternativo al trapianto renale, è il trattamento dialitico che rappresenta una cura ad alto costo sia sociale che economico. Il rene artificiale è il dispositivo attraverso il quale si effettua la terapia, ed è frutto di un costante sviluppo che mira a sostituire la funzione renale in quanto sottosistema dell’organismo umano. Per questo è sempre più importante dotarlo di un adeguato set di sensori che permettano di monitorare l’efficacia del trattamento. L’emodialisi prevede la rimozione dei liquidi in eccesso accumulati nel periodo che intercorre tra due trattamenti successivi, per questo un parametro molto importante da monitorare è la variazione relativa del volume ematico (RBV, Relative Blood Volume Variation). A questo scopo gli attuali dispositivi per dialisi in commercio utilizzano tecnologie ad ultrasuoni o ottiche: è stata però recentemente evidenziata la sensibilità indesiderata di questa seconda tecnica ai cambiamenti di osmolarità del sangue sotto analisi. Lo studio presentato in questa tesi è volto a migliorare l’accuratezza con la quale effettuare la stima del RBV nel corso del trattamento dialitico, attraverso un sistema di misura ottico sperimentale. Il prototipo realizzato prevede di aumentare le informazioni raccolte sia aumentando la distribuzione spaziale dei sensori ottici che allargando la banda di lunghezze d’onda alla quale i dati vengono acquisiti. La stima del RBV è gestita attraverso algoritmi basati sulle combinazioni lineari, sulle reti neurali e su modelli autoregressivi.
Resumo:
Gli odori rappresentano uno degli elementi di disturbo che la popolazione avverte maggiormente e, anche nel caso in cui non siano associati a sostanze tossiche, sono causa di conflitti e di intolleranza, sia nei confronti delle aziende che li diffondono nel territorio, sia nella scelta del sito di localizzazione di nuovi impianti. La valutazione del disturbo olfattivo e la sua regolamentazione (esistono linee guida, ma non una legislazione di riferimento) rappresentano aspetti caratterizzati da elevata complessità, dal momento che l’inquinamento olfattivo è strettamente associato alla percezione umana. Nella tesi vengono valutate le emissioni odorigene e le relative immissioni, dovute ad un comparto per la gestione integrata dei rifiuti. Per caratterizzare le emissioni sono stati prelevati dei campioni di aria presso le principali sorgenti individuate e quantificate utilizzando la tecnica dell’olfattometria dinamica. Una volta caratterizzate le sorgenti, i dati di emissione ottenuti dalla campagna di misura e dall’analisi olfattometrica sono stati utilizzati come dati di input del modello LAPMOD (LAgrangian Particle MODel). LAPMOD è stato implementato con un modulo specifico per la determinazione delle concentrazioni massime orarie che utilizza un peak-to-mean variabile nel tempo, a differenza di altri modelli che usano un valore costante per la determinazione. Dall'elaborazione dei dati è emerso che, utilizzando il modulo specifico per gli odori, le concentrazioni come 98° percentile riferite al giorno tipico hanno un andamento opposto rispetto all’uso di un peak-to-mean costante. Dal confronto della simulazione in cui le emissioni sono indipendenti dalla variazione della portata di odore in funzione della velocità del vento, con quella che invece simula tale dipendenza (nelle sorgenti che presentano paratie laterali e tettoia) è emerso che la simulazione che mitiga completamente l’effetto del vento è più coerente con la realtà.
Resumo:
Poiché i processi propri del sistema nervoso assumono una funzione fondamentale nello svolgimento della vita stessa, nel corso del tempo si è cercato di indagare e spiegare questi fenomeni. Non solo infatti il suo ruolo è di primaria importanza, ma le malattie che lo colpiscono sono altamente invalidanti. Nell’ultimo decennio, al fine di far luce su questi aspetti profondamente caratterizzanti la vita dell’uomo, hanno avuto luogo diversi studi aventi come strumento d’esame la stimolazione transcranica a corrente continua. In particolare questo lavoro si propone di analizzare gli ambiti di interesse dell’applicazione della tDCS, soffermandosi sulla capacità che ha questa metodica di indagare i meccanismi propri del cervello e di proporre terapie adeguate qualora questi meccanismi fossero malfunzionanti. L’utilizzo di questa stimolazione transcranica unitamente ai più moderni metodi di neuroimaging permette di costruire, o quanto meno cercare di delineare, un modello delle strutture di base dei processi cognitivi, quali ad esempio il linguaggio, la memoria e gli stati di vigilanza. A partire da questi primi promettenti studi, la tDCS è in grado di spostare le proprie ricerche nell’ambito clinico, proponendo interessanti e innovative terapie per le malattie che colpiscono il cervello. Nonostante patologie quali il morbo di Parkinson, l’Alzheimer, la dislessia ed l’afasia colpiscano una grande percentuale della popolazione non si è ancora oggi in grado di garantire ai pazienti dei trattamenti validi. E’ in questo frangente che la tDCS assume un ruolo di primaria importanza: essa si presenta infatti come una tecnica alternativa alle classiche cure farmacologie e allo stesso tempo non invasiva, sicura e competitiva sui costi.
Resumo:
Secondo l'Agenzia Europea dell'Ambiente una delle principali minacce per le risorse di acqua dolce della zone costiere italiane è l’intrusione salina. L’obiettivo di questa tesi magistrale è la caratterizzazione idrogeologica di una frazione dell’acquifero freatico costiero situato in due differenti corpi dunosi. L’indagine proseguita per cinque mesi ha evidenziano differenze tra un’area sottoposta a forte pressione antropica (Marina Romea) e un’area che mostra un relativo sviluppo naturale del sistema spiaggia-duna (Porto Corsini). La tecnica di campionamento utilizzata è il sistema a minifiltri (multi level samplers), metodologia innovativa che garantisce tempistiche di monitoraggio rapide e una campionatura multi-livello puntuale e precisa. La campagna di monitoraggio ha coinvolto misure di freatimetria, conduttività elettrica e analisi chimiche delle acque che hanno portato ad una loro classificazione geo-chimica. Dai risultati si evidenzia che l’acquifero è molto salinizzato, gli strati d’acqua dolce sono isolati in lenti superficiali e i tipi di acque presenti sono dominati da ioni sodio e cloro. Tra i due siti il più vulnerabile risulta essere Marina Romea per molti fattori: l’erosione costiera che assottiglia la fascia dunale adibita alla ricarica di acqua dolce, un’estensione spaziale della duna minore rispetto a Porto Corsini, la presenza di infrastrutture turistiche che hanno frazionato la duna, la vicinanza al canale di drenaggio che causa la risalita delle acque profonde saline, la presenza di specie arboree idro-esigenti che attingono e quindi assottigliano le lenti d’acqua dolce. Si propone di migliorare la qualità dell’acqua sotterranea con una migliore gestione del canale di drenaggio, sostituendo alcuni esemplari di pinacee con specie arbustive tipiche degli ambienti dunosi ed infine imponendo misure per il risparmio idrico durante la stagione turistica.
Resumo:
Le ammine biogene sono il prodotto della decarbossilazione degli amminoacidi da parte di enzimi microbici. Tra essi vi è la tirosina decarbossilasi, caratterizzata dalla possibilità di utilizzare, in assenza di tirosina, la fenilalanina, ottenendo la 2-feniletilamina. In particolare, la tiramina è responsabile della comparsa di importanti sintomi tossicologici, raggruppati con il termine “cheese reaction”. In questa sperimentazione sono stati presi in considerazione 2 ceppi di Enterococcus mundtii (C46 e C53) coltivati in BHI in presenza o assenza di tirosina per caratterizzarne l’attività decarbossilasica. Sono state monitorate la crescita microbica, mediante densità ottica e la produzione di tiramina e 2-feniletilamina mediante tecnica HPLC. Dai risultati ottenuti è emerso che entrambi i ceppi producono tiramina sia in presenza che in assenza del precursore. La concentrazione massima rilevata per il ceppo C46 è stata di 797 mg/l e 767 mg/l per C53. È inoltre emerso che essi possono decarbossilare la fenilalanina, ma solo dopo 8 e 24 ore di incubazione per il ceppo C46 e C53. Per quanto concerne la crescita, entrambi i ceppi hanno raggiunto il massimo valore di densità ottica dopo 6-8 ore a 37°C, con una durata della fase lag ridotta, seguita da un rapido aumento della densità ottica. Non sono state riscontrate differenze significative in termini di massima densità ottica raggiunta (A) e durata della fase lag (λ) tra i due ceppi, mentre C53 ha presentato valori inferiori per quanto riguarda la velocità incremento della densità ottica in fase esponenziale (µmax). Dagli studi genici è emerso che l’organizzazione dell’operone dei ceppi considerati corrisponde con quella filogeneticamente riconosciuta per il genere Enterococcus, ma nonostante la similarità, l’operone manca del gene codificante per l’antiporto Na+/H+. È stata inoltre evidenziata nel genoma dei ceppi considerati un’altra regione che contiene geni codificanti per un ulteriore sistema decarbossilasico.
Resumo:
La documentazione tecnica ha assunto un ruolo fondamentale per i produttori sia per rispondere agli obblighi di legge (v. Direttiva Macchine 2006/42/CE) sia come strumento di marketing. Dato l’alto grado di ripetitività dei manuali di istruzioni e le numerose lingue di destinazione, per la loro traduzione è indispensabile l’uso dei CAT tool. In questo contesto, la presente tesi si pone l’obiettivo di individuare una serie di elementi linguistici che possano fornire informazioni sulla qualità dei testi di partenza in italiano e su cui si possa intervenire per migliorarli, nell’ottica di ottimizzare l’uso dei CAT tool e ridurre il costo delle traduzioni. L’idea alla base del progetto è infatti che le caratteristiche dei testi originali influiscano in maniera fondamentale sulla qualità del risultato finale, così come sul costo del servizio di traduzione. I contenuti sono suddivisi in cinque capitoli. Nel primo capitolo si analizzano gli studi sulla leggibilità dei testi, sulla semplificazione del linguaggio e sui linguaggi specialistici. Nel secondo capitolo si presenta il funzionamento dei CAT tool e si approfondiscono gli aspetti rilevanti per l’ottimizzazione del loro uso nella traduzione dei manuali di istruzioni. Nel terzo capitolo si combinano le conoscenze acquisite nei primi due capitoli e si propone un metodo di revisione dei manuali da sottoporre a traduzione. Tale revisione ha lo scopo di agevolare i CAT tool nel riconoscimento della somiglianza tra le frasi e di permettere di conseguenza un lavoro di traduzione a costi inferiori, senza però perdere di vista la qualità finale del manuale e la sua leggibilità e chiarezza. Nel quarto capitolo si espone l’applicazione pratica del metodo e si analizzano e discutono i risultati ottenuti. Nel quinto capitolo si traggono le conclusioni finali sul metodo proposto e i relativi risultati. Si propongono inoltre argomenti di riflessione e discussione che suggeriscono nuovi scenari e prospettive.
Resumo:
In questo elaborato vengono presentate la traduzione di un estratto di un romanzo di Terry Pratchett, The fifth elephant, e l’analisi di questa traduzione, realizzata con l’aiuto di un corpus costruito ad hoc per questa ricerca. Nel corpus sono state inserite le traduzioni italiane di otto romanzi differenti, scritti dallo stesso autore, Terry Pratchett, e tradotti da tre traduttrici professioniste. Questo corpus è stato ideato appositamente per coadiuvare il processo di traduzione dell’estratto e per esemplificare un metodo di analisi del lavoro di traduttori professionisti. Questo tipo di analisi, nota come translational stylistics, ha lo scopo di identificare le differenze esistenti a livello stilistico tra i traduttori, cercando nello specifico quegli elementi che permettano di identificare e distinguere tra loro i lavori di un determinato traduttore da quelli di un altro, a prescindere dal testo di partenza. Questo elaborato si apre con la descrizione tecnica di un corpus, spiegandone gli utilizzi nel campo della ricerca e i metodi di costruzione. In seguito viene fornita una panoramica dell’autore e delle sue opere, e vengono fornite informazioni sulle traduzioni in italiano di questi romanzi e sulle traduttrici che le hanno elaborate. Viene quindi presentata la traduzione dell’estratto, seguita da un’analisi dei problemi traduttivi affrontati durante il processo di traduzione e di come il corpus abbia aiutato a risolvere e superare queste difficoltà. Infine viene presentato uno studio di caso sulla translational stylistics che mostra le differenze a livello di stile esistenti tra i lavori di traduttori diversi.
Resumo:
Durante la mia tesi mi sono occupata di una grave patologia, l’Aneurisma Cerebrale, che rappresenta una delle principali cause di ospedalizzazione provocando il 10/12% della mortalità globale annua nei paesi industrializzati. In Italia , l’incidenza di aneurismi cerebrali è di 100.000 nuovi casi all’anno. In generale , nei paesi industrializzati, la prevalenza è stimata a circa 600 per 100.000 abitanti . Tuttavia la prevalenza degli aneurismi cerebrali nelle popolazioni in generale , è molto più elevato stimato intorno al 2,3%,il che suggerisce indirettamente che la maggior parte degli aneurismi non va mai incontro a rottura. Negli ultimi vent’anni lo sviluppo della tecnologia ha visto significativi progressi che ci hanno permesso di agire sul problema in modo sempre migliore. Nei primi capitoli ho descritto alcune apparecchiature biomediche che sono di fondamentale importanza nello studio degli aneurismi cerebrali, mettendo in evidenza le varie peculiarità che le contraddistinguono. A seguire, ho parlato del trattamento endovascolare, che consiste nell’esclusione della cavità aneurismatica dal flusso di sangue, il quale viene incanalato in una protesi posizionata all’interno del lume vasale eliminando il rischio di rottura o di embolizzazione di materiale trombotico proveniente dalla sacca aneurismatica. I vantaggi della tecnica endovascolare consistono nella minore invasività rispetto alla tecnica chirurgica standard, la craniotomia. A fronte di ciò, si deduce quanto l’ingegneria biomedica sia una disciplina in evoluzione. Le condizioni di vita delle persone che subiscono questi tipi di interventi sono notevolmente migliorate ottenendo risultati di completa o semi-completa guarigione.
Resumo:
Con l’aumento dell’acidità e degli inquinanti nelle deposizioni umide, la corrosione atmosferica dei bronzi esposti all’aperto è stata accelerata e la stabilità della patina di prodotti di alterazione, che solitamente protegge parzialmente il substrato metallico, risulta compromessa. La patina costituisce il supporto reale nelle condizioni d’impiego dell’inibitore o del protettivo, il quale viene applicato in seguito ad una pulitura del manufatto corroso che non espone il metallo nudo. L’inibitore attualmente più utilizzato, benzotriazolo (BTA), risulta non totalmente adeguato nei confronti del bronzo, tossico per l’ambiente e sospetto cancerogeno per l’uomo. Occorre quindi sviluppare soluzioni alternative per la conservazione dei bronzi all’aperto: a questo scopo, il presente lavoro di tesi si è sviluppato in tre fasi: (i) patinazione via invecchiamento artificiale accelerato, simulando la pioggia battente (dropping test) e la pioggia stagnante (wet&dry) su campioni di bronzo quaternario Cu-Sn-Zn-Pb, al fine di produrre un substrato rappresentativo, diversificando le patine prodotte dalle due geometrie di esposizione, sul quale possa essere applicato un inibitore o protettivo. La patinazione artificiale ha permesso di riprodurre efficacemente le due tipologie di patine naturali: le superfici patinate in pioggia battente hanno mostrato il tipico arricchimento in Stagno dovuto alla decuprificazione, mentre le superfici patinate in pioggia stagnante hanno presentato la comparsa dei tipici prodotti precursori dei solfati basici. (ii) pulitura di una patina naturale su bronzo quaternario (fontana del XVII sec.) mediante sabbiatura criogenica (dry-ice blasting), al fine di verificare l’efficienza di questa tecnica per preparare le superfici patinate all’applicazione di un inibitore o protettivo e il suo eventuale utilizzo in sostituzione alle tecniche tradizionali. La sabbiatura criogenica si è tuttavia dimostrata non selettiva nei confronti dei depositi calcarei, dimostrandosi non utilmente applicabile. (iii) protezione di superfici di bronzo quaternario, patinate artificialmente simulando la pioggia battente, mediante un trattamento innovativo di biopatinazione ottenuto applicando il ceppo fungino Beauveria Bassiana, potenzialmente in grado di convertire in ossalati i prodotti di corrosione della patina naturale. Lo scopo è quello di valutare l’efficienza protettiva della biopatina in seguito ad un invecchiamento accelerato simulante la pioggia battente. La biopatinazione è risultata applicabile anche a superfici arricchite in Stagno artificialmente (dropping test), ma la biopatina ottenuta non si è mostrata in grado di limitare i fenomeni corrosivi. Si ritengono necessarie ulteriori prove per valutarne l’efficienza a più lungo termine.
Resumo:
I Polar Codes sono la prima classe di codici a correzione d’errore di cui è stato dimostrato il raggiungimento della capacità per ogni canale simmetrico, discreto e senza memoria, grazie ad un nuovo metodo introdotto recentemente, chiamato ”Channel Polarization”. In questa tesi verranno descritti in dettaglio i principali algoritmi di codifica e decodifica. In particolare verranno confrontate le prestazioni dei simulatori sviluppati per il ”Successive Cancellation Decoder” e per il ”Successive Cancellation List Decoder” rispetto ai risultati riportati in letteratura. Al fine di migliorare la distanza minima e di conseguenza le prestazioni, utilizzeremo uno schema concatenato con il polar code come codice interno ed un CRC come codice esterno. Proporremo inoltre una nuova tecnica per analizzare la channel polarization nel caso di trasmissione su canale AWGN che risulta il modello statistico più appropriato per le comunicazioni satellitari e nelle applicazioni deep space. In aggiunta, investigheremo l’importanza di una accurata approssimazione delle funzioni di polarizzazione.
Resumo:
L’oggetto di questa tesi è un intervento di rigenerazione, riqualificazione ed efficientamento energetico di un edificio residenziale di 40 alloggi a Bologna, zona Bolognina. Quest’ultimo, vittima dei bombardamenti della seconda Guerra Mondiale fu ricostruito nel 1952 mantenendo le caratteristiche di quello precedente. Come in molti edifici analoghi per epoca di costruzione e aratteristiche, anche in questo caso si manifestano alcune criticità ricorrenti, in particolare: - Scarsa efficienza energetica; - Inadeguatezza sismica; - Comfort abitativo insoddisfacente; - Taglio degli alloggi pensato per nuclei famigliari diversi da quelli attuali; - Spazi pubblici, dotazioni e arredi urbani carenti. L'obiettivo che si pone la tesi è quello di migliorare la vivibilità dell'edificio e dell'area in cui si colloca, adattandolo alle esigenze di oggi e di domani. Il progetto propone un insieme di interventi coordinati, definiti con attenzione per la loro fattibilità tecnica e tenendo conto del fatto che si tratta di un complesso di edilizia residenziale pubblica del patrimonio ACER Bologna. In termini pratici, il progetto interviene sia sugli spazi circostanti l'edificio, sia sul manufatto architettonico. A scala micro-urbana è stata prevista la riorganizzazione e il riordino delle aree scoperte di pertinenza, ridefinendo la viabilità dotandole di elementi di arredo che ne consentano la fruizione. A scala edilizia è stato progettato un efficientamento energetico che portasse l'edificio in classe A dalla attuale classe energetica F. Ciò ha richiesto di ridefinire le stratigrafie delle chiusure verticali ed orizzontali in coerenza con gli aspetti di composizione delle facciate. Piccole riconfigurazioni interne hanno poi portato ad un riassetto del taglio degli alloggi per disporre in maggior numero di unità di piccole dimensioni, adatte alla domanda oggi prevalente.