453 resultados para fulminazione indiretta, sovratensione indotta, algoritmo genetico, posizionamento degli scaricatori, rete di distribuzione compatta


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio di un nuovo algoritmo di localizzazione per rete di sensori ad ultrasuoni e sviluppo di un simulatore di propagazione di onda sonora.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggetto di questa tesi di laurea è la progettazione di una nuova scuola primaria in Via Bidente, località Villaggio Primo Maggio a Rimini. La tesi parte da un progetto preliminare, elaborato dall’ufficio tecnico del Comune di Rimini, sulla base del quale, nel settembre 2013, è stato indetto un appalto integrato con procedura aperta per l’affidamento sia della progettazione esecutiva che della realizzazione della scuola. L’intervento si era reso necessario poiché la vecchia scuola non era più in grado di far fronte alle esigenze del quartiere, investito da un intenso sviluppo che ne aveva aumentato sensibilmente gli abitanti e quindi la popolazione scolastica. La tesi ha assunto gli obiettivi e i dimensionamenti fissati dal Bando di gara: quindici aule, sei laboratori, palestra, biblioteca, mensa, sala insegnanti, area verde, parcheggio, pista ciclopedonale. Per definire le strategie di progetto da adottare, è stata effettuata un’analisi dell’area dalla quale sono emerse esigenze e criticità del quartiere. A scala urbana la viabilità e la fruibilità del lotto risultano inadeguate, e per correggerle, si è prevista la realizzazione di una nuova pista ciclabile e di un parcheggio. Inoltre professionisti esperti e di comprovata esperienza in materia hanno condotto studi approfonditi ed attente valutazioni di carattere ambientale, riguardanti l’inquinamento elettromagnetico, acustico ed atmosferico. Per limitare l'inquinamento acustico a cui la scuola risulterebbe esposta, è stata prevista la realizzazione di alcuni tratti di barriere fonoassorbenti lungo il perimetro dell’area di progetto al fine di proteggerla dalle fonti di rumore maggiormente impattanti. Al centro delle strategie progettuali c’è il bambino, che diventa il vero committente, ossia il soggetto di cui soddisfare esigenze e desideri. Si è cercato quindi di realizzare un ambiente confortevole e sicuro in cui i bambini si sentano a proprio agio. A scala architettonica si è pensata a una distribuzione degli spazi che permetta di sfruttare a pieno le potenzialità degli ambienti attraverso una collocazione delle funzioni su tre diverse fasce longitudinali: servizi nella zona nord, connettivo e aule a sud. Inoltre è stato studiato uno schema distributivo in linea con le esigenze dei nuovi modelli pedagogici, in particolare: aule e laboratori adattabili, spazi per l’apprendimento di gruppo sia all’interno che all’esterno dell’edificio, i cui spazi di distribuzione sono dimensionati per poter ospitare anche funzioni didattiche. Ogni scelta adottata vuol far si che tutto l’edificio diventi fonte di insegnamento per i bambini, una sorta di paesaggio dell’apprendimento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La capacità di estrarre entità da testi, collegarle tra loro ed eliminare possibili ambiguità tra di esse è uno degli obiettivi del Web Semantico. Chiamato anche Web 3.0, esso presenta numerose innovazioni volte ad arricchire il Web con dati strutturati comprensibili sia dagli umani che dai calcolatori. Nel reperimento di questi temini e nella definizione delle entities è di fondamentale importanza la loro univocità. Il nostro orizzonte di lavoro è quello delle università italiane e le entities che vogliamo estrarre, collegare e rendere univoche sono nomi di professori italiani. L’insieme di informazioni di partenza, per sua natura, vede la presenza di ambiguità. Attenendoci il più possibile alla sua semantica, abbiamo studiato questi dati ed abbiamo risolto le collisioni presenti sui nomi dei professori. Arald, la nostra architettura software per il Web Semantico, estrae entità e le collega, ma soprattutto risolve ambiguità e omonimie tra i professori delle università italiane. Per farlo si appoggia alla semantica dei loro lavori accademici e alla rete di coautori desumibile dagli articoli da loro pubblicati, rappresentati tramite un data cluster. In questo docu delle università italiane e le entities che vogliamo estrarre, collegare e rendere univoche sono nomi di professori italiani. Partendo da un insieme di informazioni che, per sua natura, vede la presenza di ambiguità, lo abbiamo studiato attenendoci il più possibile alla sua semantica, ed abbiamo risolto le collisioni che accadevano sui nomi dei professori. Arald, la nostra architettura software per il Web Semantico, estrae entità, le collega, ma soprattutto risolve ambiguità e omonimie tra i professori delle università italiane. Per farlo si appoggia alla semantica dei loro lavori accademici e alla rete di coautori desumibile dagli articoli da loro pubblicati tramite la costruzione di un data cluster.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quando avvengono disastri naturali, spesso la copertura dati viene a mancare e le infrastutture o sono danneggiate o sono sovraccariche; in questo modo è difficile comunicare sia da parte delle persone che hanno bisogno di aiuto, sia da parte dei soccorritori che cercano di organizzare i soccorsi. Con questa tesi si è voluto realizzare un'applicazione Android che permetta agli utenti di segnalare il proprio bisogno di aiuto, anche se il device non ha una connessione internet attiva. L'applicazione, sfruttando il Wi-Fi e il Wi-Fi Direct, cercherà di formare una rete di dispositivi, attraverso la quale i messaggi di aiuto degli utenti verranno scambiati tra i device. Questa rete, man mano, si allargherà fino ad arrivare ad includere device che avranno una connessione dati attiva. Questi comunicheranno con il mio server, al quale manderanno tutti i messaggi che gli sono arrivati. I dati del server, ossia i messaggi che sono stati mandati dagli utenti, verranno mostrati sul sito ltw1528.web.cs.unibo.it. Attraverso questo sito, i soccorritori potranno vedere la posizione degli utenti in stato di bisogno, cosicché potranno mandarli un messaggio di soccorso, che si propagherà nella rete formatasi in precedenza, ed organizzare i soccorsi in maniera ottimale. Si è anche voluto fare uno studio simulativo per testare la scalabilità dell'applicazione e per raccogliere dati statistici, quali il delay medio tra l'arrivo del messaggio al device con connessione dati e il tempo in cui è stato creato, l'influenza sulla batteria del numero dei messaggi scambiati e il numero degli host, il delay tra il tempo di invio e il tempo di arrivo nello scambio di messaggi al variare del numero degli host.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Durante i processi di estrazione può avvenire la formazione spontanea d’idrati di gas naturali, i quali, agglomerandosi, possono ostruire le tubazioni. Inibire la formazione degli idrati è quindi di fondamentale importanza al fine di prevenire danni ambientali ed economici. In questo contesto abbiamo ritenuto interessante sintetizzare diversi copolimeri a struttura controllata con lo scopo di utilizzarli come inibitori d’idrati. In particolare, dopo aver ottimizzato la sintesi dell’omopolimero costituente il primo blocco mediante ATRP, questo è stato utilizzato come macroiniziatore per la successiva copolimerizzazione di tre altri monomeri a diversa polarità. L’efficienza d’inibizione di tutti i derivati copolimerici ottenuti è stata testata e confrontata con quella di additivi commerciali attualmente in uso mediante DSC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo dell'elaborato di tesi è l'analisi, progettazione e sviluppo di un prototipo di una infrastruttura cloud in grado di gestire un grande flusso di eventi generati da dispositivi mobili. Questi utilizzano informazioni come la posizione assunta e il valore dei sensori locali di cui possono essere equipaggiati al fine di realizzare il proprio funzionamento. Le informazioni così ottenute vengono trasmesse in modo da ottenere una rete di device in grado di acquisire autonomamente informazioni sull'ambiente ed auto-organizzarsi. La costruzione di tale struttura si colloca in un più ampio ambito di ricerca che punta a integrare metodi per la comunicazione ravvicinata con il cloud al fine di permettere la comunicazione tra dispositivi vicini in qualsiasi situazione che si potrebbe presentare in una situazione reale. A definire le specifiche della infrastruttura e quindi a impersonare il ruolo di committente è stato il relatore, Prof. Mirko Viroli, mentre lo sviluppo è stato portato avanti da me e dal correlatore, Ing. Pietro Brunetti. Visti gli studi precedenti riguardanti il cloud computing nell'area dei sistemi complessi distribuiti, Brunetti ha dato il maggiore contributo nella fase di analisi del problema e di progettazione mentre la parte riguardante la effettiva gestione degli eventi, le computazioni in cloud e lo storage dei dati è stata maggiormente affrontata da me. In particolare mi sono occupato dello studio e della implementazione del backend computazionale, basato sulla tecnologia Apache Storm, della componente di storage dei dati, basata su Neo4j, e della costruzione di un pannello di visualizzazione basato su AJAX e Linkurious. A questo va aggiunto lo studio su Apache Kafka, utilizzato come tecnologia per realizzare la comunicazione asincrona ad alte performance tra le componenti. Si è reso necessario costruire un simulatore al fine di condurre i test per verificare il funzionamento della infrastruttura prototipale e per saggiarne l'effettiva scalabilità, considerato il potenziale numero di dispositivi da sostenere che può andare dalle decine alle migliaia. La sfida più importante riguarda la gestione della vicinanza tra dispositivi e la possibilità di scalare la computazione su più macchine. Per questo motivo è stato necessario far uso di tecnologie per l'esecuzione delle operazioni di memorizzazione, calcolo e trasmissione dei dati in grado di essere eseguite su un cluster e garantire una accettabile fault-tolerancy. Da questo punto di vista i lavori che hanno portato alla costruzione della infrastruttura sono risultati essere un'ottima occasione per prendere familiarità con tecnologie prima sconosciute. Quasi tutte le tecnologie utilizzate fanno parte dell'ecosistema Apache e, come esposto all'interno della tesi, stanno ricevendo una grande attenzione da importanti realtà proprio in questo periodo, specialmente Apache Storm e Kafka. Il software prodotto per la costruzione della infrastruttura è completamente sviluppato in Java a cui si aggiunge la componente web di visualizzazione sviluppata in Javascript.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro è presentato l'utilizzo della spettroscopia di assorbimento di raggi X applicata all'indagine inerente il numero e la natura degli atomi vicini di un centro metallico a due diversi stati di ossidazione [Cu(I) e Cu(II)] all'interno di complessi fosfinici e/o azotati. Gli spettri sono stati registrati nella loro completezza, comprendendo sia la soglia sia lo spettro esteso di assorbimento, e le transizioni elettroniche 1s→3d e 1s→4p sono state oggetto d'esame per avere indicazioni circa l'intorno locale del fotoassorbitore (l'atomo centrale). La tecnica più utilizzata, tuttavia, è stata l'analisi EXAFS (Extended X-ray Absorption Fine Structure) che ha permesso di determinare l’effettiva coordinazione di Cu(I) e (II) nel caso dei complessi studiati. Il metodo consiste nella costruzione di un segnale teorico più simile possibile a quello ottenuto sperimentalmente, e l’approccio per raggiungere questo obiettivo consiste nel seguire una procedura di fitting eseguita computazionalmente (tramite il pacchetto software GNXAS), per la quale è necessario un modello strutturale già esistente o creato ex novo da una molecola di partenza molto simile. Sarà presentato lo studio degli esperimenti ottenuti su campioni sia solidi che in soluzione: in questo modo è stato possibile effettuare un confronto tra le due forme dello stesso composto nonché si è potuto osservare i cambiamenti riguardanti l’interazione metallo-solvente a diverse concentrazioni. Come sarà mostrato in seguito, l’analisi sui solidi è risultata più affidabile rispetto a quella riferita alle soluzioni; infatti il basso rapporto segnale/rumore caratterizzante le misure di queste ultime ha limitato le informazioni ottenibili dai relativi spettri di assorbimento di raggi X.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene presentata un'analisi numerica dell'evoluzione dinamica del modello di Heisenberg XXZ, la cui simulazione è stata effettuata utilizzando l'algoritmo che va sotto il nome di DMRG. La transizione di fase presa in esame è quella dalla fase paramagnetica alla ferromagnetica: essa viene simulata in una catena di 12 siti per vari tempi di quench. In questo modo si sono potuti esplorare diversi regimi di transizione, da quello istantaneo al quasi-adiabatico. Come osservabili sono stati scelti l'entropia di entanglement, la magnetizzazione di mezza catena e lo spettro dell'entanglement, particolarmente adatti per caratterizzare la fisica non all'equilibrio di questo tipo di sistemi. Lo scopo dell'analisi è tentare una descrizione della dinamica fuori dall'equilibrio del modello per mezzo del meccanismo di Kibble-Zurek, che mette in relazione la sviluppo di una fase ordinata nel sistema che effettua la transizione quantistica alla densità di difetti topologici, la cui legge di scala è predicibile e legata agli esponenti critici universali caratterizzanti la transizione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Ricerca Operativa è considerata una disciplina universitaria il cui insegnamento è previsto nei corsi di laurea di Ingegneria, Matematica e Informatica. Da qualche anno si è verificata una tendenza ad anticipare l'insegnamento della Ricerca Operativa ad un grado scolastico inferiore. In Gran Bretagna e negli Stati Uniti sono presenti organizzazioni molto attive nell'ambito della sua divulgazione e sono nati progetti importanti a livello didattico: corsi di formazione per i docenti, condivisione in rete di materiali e report delle esperienze effettuate. A partire dal 2012 anche nelle indagini internazionali OCSE-PISA si sono aggiunte due aree i cui obiettivi e contenuti si avvicinano alla Ricerca Operativa: financial literacy e problem solving. In Italia, dopo la riforma governativa Gelmini del 2008, sono presenti elementi di Ricerca Operativa solo nei programmi di matematica del quinto anno degli istituti tecnici commerciali e industriali. Tuttavia la Ricerca Operativa può svolgere un ruolo fondamentale nella formazione scientifica, innanzitutto per il suo ruolo di "ponte" tra la matematica e l'informatica, poi per l'importanza dello sviluppo della modellizzazione e per l'interdisciplinarietà della materia e lo stretto contatto con il mondo del lavoro. Inoltre, le esperienze documentate di didattica della Ricerca Operativa hanno potuto verificare l'importante ruolo motivazionale che possiede nei confronti degli studenti meno amanti della matematica. In questo lavoro di tesi si è interrogata la fattibilità di un percorso di Ricerca Operativa per una classe seconda liceo scientifico (anno in cui vengono svolte le indagini internazionali). Viene poi presentata la costruzione di una lezione di Programmazione Lineare che prevede una prima fase di modellizzazione del problema e una seconda fase di soluzione tramite il solutore di excel in laboratorio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le grandi catene di distribuzione, per sviluppare strategie commerciali sempre più efficaci, sono interessate a comprendere il percorso che ogni cliente effettua all’interno del punto vendita, che reparti visita, il tempo di permanenza in un’area specifica ecc… Quindi è stato necessario trovare un sistema per localizzare e tracciare un cliente all’interno di un ambiente chiuso (indoor position). Prima di tutto ci si è concentrati sulla ricerca e sviluppo di una nuova idea che potesse superare gli ostacoli delle soluzioni attualmente in commercio. Si è pensato di sostituire le tessere punti del punto vendita con delle tessere bluetoothLE e di creare un sistema di posizionamento al chiuso utilizzando la stessa logica di funzionamento del GPS per gli ambienti aperti. Il ricevitore è la tessera BLE posseduta dal cliente e i satelliti sono tre device Android dotati di un’app specifica per rilevare il segnale radio (RSSI) emesso dalla tessera ogni secondo. Le rilevazioni dei tre device Android sono successivamente trasferite all’interno di una web application che si occupa di elaborare i dati tramite il processo di trilaterazione. L’output sono le coordinate x,y di ciascuna tessera in ogni secondo di visita all’interno del punto vendita. Questi dati sono infine utilizzati per mostrare graficamente il percorso effettuato dal cliente, l’orario di ingresso e di uscita e il tempo di permanenza. Riepilogando, il progetto comprende una fase di ricerca e intuizione di una nuova idea, una fase di progettazione per traslare i meccanismi del funzionamento GPS all’utilizzo in un ambiente chiuso, una fase di implementazione dell’app e della web application e infine una fase di sperimentazioni sul campo che si concluderà dopo la laurea con test reali in un supermercato della zona.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell'era genomica moderna, la mole di dati generata dal sequenziamento genetico è diventata estremamente elevata. L’analisi di dati genomici richiede l’utilizzo di metodi di significatività statistica per quantificare la robustezza delle correlazioni individuate nei dati. La significatività statistica ci permette di capire se le relazioni nei dati che stiamo analizzando abbiano effettivamente un peso statistico, cioè se l’evento che stiamo analizzando è successo “per caso” o è effettivamente corretto pensare che avvenga con una probabilità utile. Indipendentemente dal test statistico utilizzato, in presenza di test multipli di verifica (“Multiple Testing Hypothesis”) è necessario utilizzare metodi per la correzione della significatività statistica (“Multiple Testing Correction”). Lo scopo di questa tesi è quello di rendere disponibili le implementazioni dei più noti metodi di correzione della significatività statistica. È stata creata una raccolta di questi metodi, sottoforma di libreria, proprio perché nel panorama bioinformatico moderno non è stato trovato nulla del genere.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’ obiettivo della tesi proposta è volto ad illustrare come la malattia diabetica può essere gestita a livello domiciliare attraverso dispositivi di monitoraggio della glicemia sempre più innovativi. La malattia diabetica è un disturbo metabolico che ha come manifestazione principale un aumento del livello di zucchero nel sangue (glicemia) dovuto ad una ridotta produzione di insulina, l’ormone secreto dal pancreas per utilizzare gli zuccheri e gli altri componenti del cibo e trasformarli in energia. È una delle patologie croniche a più ampia diffusione nel mondo, in particolare nei Paesi industrializzati, e costituisce una delle più rilevanti e costose malattie sociali della nostra epoca, soprattutto per il suo carattere di cronicità, per la tendenza a determinare complicanze nel lungo periodo e per il progressivo spostamento dell’insorgenza verso età giovanili. Le tecnologie applicate alla terapia del diabete hanno consentito negli ultimi vent’anni di raggiungere traguardi molto importanti, soprattutto per quanto riguarda l’ottimizzazione del controllo assiduo dei valori glicemici cercando di mantenerli il più costante possibile e ad un livello simile a quello fisiologico. La comunicazione medico-paziente è stata rivoluzionata dalla telemedicina che, offrendo la possibilità di una comunicazione agevole, permette di ottimizzare l’utilizzo dei dati raccolti attraverso l’automonitoraggio glicemico e di facilitare gli interventi educativi. I glucometri, che misurano la glicemia ‘capillare’, insieme ai microinfusori, sistemi di erogazione dell’insulina sia in maniera continua (fabbisogno basale), che ‘a domanda’ (boli prandiali), hanno sostanzialmente modificato l’approccio e la gestione del diabete da parte del medico, ma soprattutto hanno favorito al paziente diabetico un progressivo superamento delle limitazioni alle normali attività della vita imposte dalla malattia. Con il monitoraggio continuo della glicemia 24 ore su 24 infatti, si ha avuto il vantaggio di avere a disposizione un elevato numero di misurazioni puntiformi nell’arco della giornata attraverso sensori glicemici, che applicati sulla pelle sono in grado di ‘rilevare’ il valore di glucosio a livello interstiziale, per diversi giorni consecutivi e per mezzo di un trasmettitore wireless, inviano le informazioni al ricevitore che visualizza le letture ottenute dal sensore. In anni recenti, il concetto di SAP (Sensor-Augmented Insulin Pump) Therapy, è stato introdotto a seguito di studi che hanno valutato l’efficacia dell’utilizzo della pompa ad infusione continua di insulina (CSII, continuous subcutaneous insulin infusion) associato ai sistemi di monitoraggio in continuo della glicemia (CGM, continuous glucose monitoring) per un significativo miglioramento del controllo glicemico e degli episodi sia di ipoglicemia sia di iperglicemia prolungata. Oggi, grazie ad una nuova funzione è possibile interrompere automaticamente l’erogazione di insulina da parte del microinfusore quando la glicemia, rilevata dal sensore, scende troppo velocemente e raggiunge un limite di allarme. Integrare lettura della glicemia, infusione e sospensione automatica dell’erogazione di insulina in caso di ipoglicemia ha ovviamente aperto la porta al pancreas artificiale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi tratta l’analisi preliminare dell’Organization Environmental Footprint (OEF) dell’ente gestore dell’aeroporto Falcone - Borsellino di Palermo (GES.A.P.). Viene inoltre sviluppato un nuovo metodo per la classificazione degli aspetti ambientali utilizzabile all’interno del Sistema di Gestione Ambientale (SGA) attualmente utilizzato dall’ente GES.A.P. Dopo un'introduzione sulle ragioni che hanno portato allo sviluppo di questi strumenti, vengono approfondite le fasi necessarie per la loro applicazione, specificate nella guida metodologica sull’OEF e nella norma ISO 14001. I dati raccolti per il calcolo dell’OEF sono stati inseriti in un modello dell’organizzazione creato con il software GaBi7 al fine di stimare gli impatti ambientali dell’organizzazione negli anni analizzati. In questo lavoro viene effettuata un’analisi del metodo EMRG (Environmental Management Research Group) utilizzato per l’individuazione e la classificazione degli aspetti ambientali nell’ambito del SGA (certificato ISO 14001:2004) di GESAP e delle innovazioni introdotte nella versione 2015 della norma ISO 14001. Viene suggerito un metodo alternativo basato sull’integrazione dei risultati di un'analisi Life Cicle Assessment (LCA), svolta tramite l’OEF, con la metodologia EMRG, attualmente impiegata, al fine di avviare il processo di transizione del SGA verso l’aggiornamento-consegna richiesto dalla ISO14001:2015. Dall’applicazione del metodo viene ricavata una nuova gerarchia degli aspetti ambientali di GESAP utilizzabile per l’implementazione del suo SGA.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dal 1949 al 1989 la Germania dovette fare i conti con le conseguenze della 2^ guerra mondiale e della guerra fredda, che portarono alla spaccatura ideologica e geografica del paese. La Repubblica Democratica Tedesca, costruita su modello del socialismo dell’Urss, era guidata dal partito della SED, che esercitò il proprio predominio sociale, politico ed economico sulla popolazione e sull’opinione pubblica, servendosi di mezzi sottili di influenza e di controllo e, non da ultimo, del linguaggio. Il progetto di questa tesi si basa sull’analisi e il sottotitolaggio di un notiziario del telegiornale della Germania Est, Aktuelle Kamera, e di un documentario prodotto dalla DEFA, l’impresa tedesco-orientale addetta alla produzione di film, con l’obiettivo di approfondire lo studio della propaganda degli ultimi anni di vita della RDT, che, grazie al controllo di tutti i mezzi di comunicazione, indottrinava i cittadini a una visione socialista del mondo e giustificava le scelte del governo. Attraverso il filtro cinematografico si possono delineare le caratteristiche della società tedesca orientale, che, pur sotto l’influenza sovietica, presentava una propria identità e cultura. Nel primo capitolo di questo elaborato verrà presentato il quadro storico di riferimento, ripercorrendo le tappe salienti che portarono alla formazione delle due Germanie e l’evoluzione sociale e politica della RDT; nel secondo capitolo ci si concentrerà sul sistema della propaganda creato dal regime con particolare attenzione al ruolo delle istituzioni, dei media e degli intellettuali. Inoltre si farà accenno all’opera di censura, al delicato mondo del consenso/dissenso e al Ministero della Sicurezza di Stato. Infine, nel terzo e ultimo capitolo verranno presentati i due documenti sottotitolati (il notiziario “1. Mai 1989” e il documentario “Berlin – die Hauptstadt der DDR”) e, basandosi su esempi concreti, verranno analizzate le strategie traduttive messe in atto durante la fase di traduzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto di questa tesi affronta le tematiche relative agli interventi di riqualificazione, adeguamento e rigenerazione urbana di un edificio residenziale di 15 unità abitative situato nella zona della Bolognina in Via Tibaldi. Le condizioni di vetustà dell’edificato e l’evoluzione economico sociale del quartiere hanno portato negli anni all’insorgere di nuove situazioni di criticità. Si sono riscontrati problemi relativi alle dimensioni degli alloggi (troppo grandi per le esigenze dei nuovi nuclei familiari), ai bassi livelli di comfort interni (rapporti illuminanti non rispettati e dimensioni dei vani non confacenti a normativa), all’accessibilità (vano ascensore inefficiente) e alla bassa efficienza energetica, che produce elevati costi di esercizio. L’analisi degli spazi esterni invece ha evidenziato uno stato di abbandono della corte, caratterizzata dalla disorganizzazione dei percorsi e delle aree verdi oltre a una carenza del numero di posti auto necessari agli abitanti dell’isolato. L’obiettivo che si pone la tesi è quello di adeguare l’area alle nuove esigenze dell’utenza e di migliorare gli standard qualitativi dell’edificato, considerando la fattibilità dell’intervento e ipotizzando misure che si pongano in alternativa ad una demolizione completa dell’edificio. Inoltre, le soluzioni proposte sono state studiate in modo da poter essere applicate non solo sul caso studio, ma anche sull’intero isolato, in un’ottica di riqualificazione urbana.Per gli spazi interni, le scelte adottate riguardano la demolizione e ricostruzione puntuali delle murature non portanti o collaboranti e l’ampliamento delle superfici finestrate, conformando a normativa i vani degli alloggi, dotandoli di una maggior superficie utile e riducendo la condizione di discomfort luminoso interno. La stessa strategia è stata adottata anche per ridefinire e diversificare il taglio degli alloggi. Infine per migliorare l’accessibilità all’edificio e agli alloggi le soluzioni prevedono l’inserimento un sistema loggiato per rendere raggiungibili direttamente dal vano ascensore preesistente, che presentava uno sbarco solo interpiano, due appartamenti per piano (dal primo al quarto). Per raggiungere invece le unità abitative collocate nel piano rialzato si è previsto di innalzare la quota del terreno fino all’altezza della soglia di ingresso ai vani. Parallelamente ci si è occupati della riprogettazione degli spazi esterni, optando per un’azione a scala urbana. La riorganizzazione delle aree è avvenuta attraverso l’inserimento di nuovi percorsi pedonali di collegamento all’edificato e mediante la progettazione e riqualificazione di spazi per la socializzazione. Infine, per arginare le problematiche relative al fabbisogno di parcheggi, si è agito diversificando e ponendo su livelli differenti la viabilità carrabile e gli spazi verdi attraverso l’inserimento di un parcheggio seminterrato.