78 resultados para assoluta continuità
Resumo:
“Tecnologie sostenibili per il social housing”: la mia tesi affronta il tema dell’edilizia sociale cercando di capire se può ancora diventare un campo di ricerca e sperimentazione architettonica come lo è stato in più occasioni nell’ultimo secolo. La ricerca si è sviluppata in due fasi: una prima attività di studio della vicenda storica dell’abitazione sociale in Italia, con alcuni confronti europei, fino ad analizzare il nuovo quadro che si è andato delineando dalla fine degli anni ’90 e che caratterizza la situazione attuale. Successivamente, la progettazione di un piccolo intervento di edilizia abitativa che si propone di rispondere agli attuali profili della domanda, puntando a scelte tipologiche e costruttive coerenti. Nel trentennio 1950-’80, nell’Europa uscita dalla Seconda guerra mondiale, e in Italia in particolare, l’edilizia popolare ha vissuto un periodo dinamico, ricco di interventi normativi da parte dello Stato, (su tutte la legge Fanfani, e le norme Gescal) che hanno permesso di realizzare molti degli edifici ancora oggi utilizzati, accelerando la ripresa economica e sociale. Dopo gli anni ’80, le ricerche e le sperimentazioni in campo architettonico si spostano verso altri temi; superata la necessità di fornire una casa a milioni di persone, il tema dell’alloggio sembra perdere il forte rilievo sociale che aveva avuto nei decenni precedenti. Fino a ritenere che il tema dell’alloggio e in particolare dell’alloggio sociale, non avesse più la necessità di essere sperimentato e approfondito. Oggi la situazione riguardante la sperimentazione non è molto diversa: sono ancora molto limitati, infatti, gli studi e le ricerche sul tema dell’alloggio sociale. Ciò che è nuovamente mutata, invece, è l’emergenza di una nuova domanda di casa e la drammatica esigenza sociale di fornire un alloggio a milioni di famiglie che non se lo possono permettere. Le dinamiche che guidano questa nuova ondata di richiesta di alloggi sono molteplici, sia di natura sociale che economica. Sul piano sociale: - l’aumento del numero delle famiglie, passate da 22.226.000 nel 200o a 24.642.000 nel 2010, con un aumento del 9,8% in un solo decennio; - la “nuclearizzazione” delle famiglie e la loro contrazione dimensionale, fino agli attuali 2,4 componenti per nucleo; - l’invecchiamento della popolazione; - l’aumento della popolazione straniera, con oltre 3.900.000 di immigrati regolari. Su quello economico: - l’aumento della povertà assoluta: in Italia 1.162.000 famiglie (4,7%) corrispondenti a 3.074.000 individui vivono sotto la soglia di povertà; - l’aumento della povertà relativa, che investe oggi 2.657.000 famiglie (9,3%) e l’aumento delle famiglie a rischio di povertà (920.000 famiglie, pari al 3,7% dei nuclei). Questi dati evidenziano la dimensione del problema abitativo e smentiscono l’opinione che si tratti di una questione marginale: nel 2010 in Italia almeno 1.162.000 non hanno le risorse per pagare un affitto, nemmeno a canone agevolato, e 4.739.000 famiglie non riescono a pagare un affitto ai prezzi del libero mercato, ma non hanno la possibilità di entrare nelle graduatorie per l’assegnazione di un alloggio sociale. Da questa panoramica sulle dimensioni del disagio abitativo, prende spunto la progettazione del mio sistema costruttivo, che si pone come obiettivo quello di ridurre i costi di costruzione tramite la standardizzazione dei componenti, consentendo di conseguenza, un minor costo di costruzione e quindi la possibilità di canoni di affitto ridotti, mantenendo buoni standard di qualità degli alloggi, sostenibilità ambientale e risparmio energetico. Le linee guida che hanno portato alla progettazione del sistema sono: - modularità degli spazi abitativi - zonizzazione funzionale - razionalizzazione impiantistica - illuminazione naturale - industrializzazione dei sistema costruttivo - standardizzazione dei componenti. Il risultato è un catalogo di alloggi di diverse metrature, aggregabili secondo tre tipologie residenziali. - a ballatoio - in linea - a torre Messo a punto questo sistema costruttivo, è stato progettato un intervento in un contesto specifico, per verificare l’applicabilità delle soluzioni sviluppate ed esplorarne alcune possibilità.
Resumo:
Questo lavoro nasce principalmente da un legame affettivo e di parentela che mi lega alla figura di Mario Giacomelli e alla sua grande opera di fotografo che lo ha portato a raggiungere un ruolo fondamentale nella storia della fotografia contemporanea. Ricordo che sin da quando ero bambino rimanevo affascinato dalle sue opere, da quei paesaggi fotografati in bianco e nero, da quelle sagome dei pretini che sembrano danzare nel vuoto, il tutto però senza capire la vera importanza di quello che avevo davanti ai miei occhi e ignorando completamente tutto l’interesse, le critiche e i dibattiti che quegli scatti accendevano in quegli anni, al punto di venire addirittura esposti in quello che si può definire il museo di arte moderna per antonomasia, ovvero il MoMa, in fondo per me non era altro che uno zio. Il ricordo mi porta nella sua piccola e buia Tipografia Marchigiana, in pieno centro storico a Senigallia, proprio dietro il Municipio, dove lo trovavo sempre indaffarato con timbri, foto e oggetti di ogni tipo, sommerso in un caos primordiale. È incredibile pensare come in quel minuscolo negozio siano passati tutti i più grandi personaggi della fotografia italiana, quali Giuseppe Cavalli, Ferruccio Ferroni, Gianni Berengo Gardin, Ferdinando Scianna; dietro quella facciata di piccola bottega si nascondeva un universo parallelo che entrava in contatto con le più importanti gallerie e musei di arte contemporanea del mondo. Oggi al suo posto c’è una Parrucchieria. Molte cose sono cambiate, io ho capito, aimè in ritardo, l’importanza del personaggio che ho avuto la fortuna di conoscere e di avere come parente. La città stessa si è accorta solo dopo la morte, come spesso accade, di quale formidabile artista ha cresciuto, un artista che è sempre rimasto fedele alla sua terra di origine, che ha rappresentato una fonte inesauribile di spunti per la sua opera fotografica. A quel punto si è scatenato un turbinio di conferenze, mostre e pubblicazioni sul lavoro di Giacomelli, tanto che sarebbe rimasto impossibile a chiunque non capire il peso che questa figura ha ancora oggi per la città. Proprio lo scorso Novembre è ricorso il decennale della sua scomparsa e in questa occasione si è dato il via ad una infinita serie di iniziative, mostre, conferenze e pubblicazioni dedicate alla figura del fotografo senigalliese, ribadendo la necessità per la città di dotarsi di uno spazio idoneo ad ospitare questi eventi. In una recente intervista condotta dal quotidiano Il Resto del Carlino, Simone Giacomelli, figlio del fotografo, ha sottolineato l’urgenza della creazione di uno spazio dedicato alle fotografie del padre “Io lavoro molto con l'estero e sono in contatto con appassionati che arrivano da tutto il mondo per ammirare le foto di Giacomelli. C'è un gruppo di studenti che mi ha contattato dall'Australia. Ho dovuto dire di aspettare perché in città c'è una raccolta di foto al Museo mezzadria ed una parte al Museo dell'informazione. Manca un luogo dove si possa invece vedere tutta la produzione.”. Con queste premesse il progetto per un Centro Internazionale della Fotografia non poteva che essere a Senigallia, non tanto per il fatto di essere la mia città, alla quale sono molto legato, quanto per l’essere stata la culla di un grande artista quale Mario Giacomelli, dalla quale non si è mai voluto allontanare e che ha rappresentato per lui la fonte di ispirazione di quasi tutte le sue opere. Possiamo dire che grazie a questo personaggio, Senigallia è diventata la città della Fotografia, in quanto non passa settimana senza che non venga presentata una nuova iniziativa in ambito fotografico e non vengano organizzate mostre di fotografi di calibro internazionale quali Henri Cartier Bresson, Ara Guler, etc… Ecco quindi motivato il titolo di Internazionale attribuito al museo, in quanto da questo cuore pulsante si dovranno creare una serie di diramazioni che andranno a collegare tutti i principali centri di fotografia mondiali, favorendo lo scambio culturale e il dibattito. Senigallia è una città di modeste dimensioni sulla costa adriatica, una città dalle grandi potenzialità e che fa del turismo sia balneare che culturale i suoi punti di forza. La progettazione di questa sede museale mi ha permesso di affrontare e approfondire lo studio storico della città nella sua evoluzione. Da questa analisi è emerso un caso molto particolare ed interessante, quello di Piazza Simoncelli, un vuoto urbano che si presenta come una vera e propria lacerazione del tessuto cittadino. La piazza infatti è stata sede fino al 1894 di uno dei quattro lotti del ghetto ebraico. Cambia quindi il ruolo del sito. Ma la mancata capacità aggregativa di questo vuoto, data anche dal fatto della mancanza di un edificio rappresentativo, ne muta il ruolo in parcheggio. E’ la storia di molti ghetti italiani inseriti in piani di risanamento che vedevano la presenza del costruito antecedente, come anomalia da sanare. E’ la storia del ghetto di Roma o di quello di Firenze, che sorgeva nel luogo dell’attuale Piazza della Repubblica. Tutti sventrati senza motivazioni diverse che non la fatiscenza dell’aggregato. A Senigallia il risultato è stato una vera e propria lacerazione del tessuto urbano, giungendo alla produzione di un vuoto oppositivo al resto della città, che ha portato la perdita della continuità spaziale, se non si vuole poi far riferimento a quella culturale. Il mio intervento quindi vede nel legame con la storia e con l’identità del luogo un punto fondamentale di partenza. Da queste basi ho cercato di sviluppare un progetto che ha come presupposto il forte legame con la memoria del luogo e con le architetture locali. Un progetto che possa rappresentare un polo culturale, un cuore pulsante dove poter sviluppare e approfondire le conoscenze fotografiche, dal quale poter entrare in contatto con tutti i principali centri dedicati alla fotografia e nel quale poter tenere sempre vivo il ricordo di uno dei più importanti artisti che la città ha avuto la fortuna di crescere.
Resumo:
Presentiamo alcune proposte di modifica alle superfici di suddivisione di Catmull-Clark, per garantire la continuità del secondo ordine anche nei vertici straordinari e una buona qualità di forma. La ricerca di questi miglioramenti è motivata dal tentativo di integrazione delle superfici di suddivisione in un sistema di modellazione geometrica in contesto CAD/CAGD, il quale richiede che certi requisiti di regolarità e qualità siano soddisfatti. Illustriamo due approcci differenti per la modifica della superficie limite. Il primo prevede il blending tra la superficie originale e una superficie polinomiale approssimante, definita opportunamente, in modo tale da ottenere la regolarità desiderata. Il secondo metodo consiste nella sostituzione della superficie di Catmull-Clark con un complesso di patch di Gregory bicubici e adeguatamente raccordati. Insieme all’attività di analisi, riformulazione ed estensione di queste proposte, abbiamo realizzato una implementazione in codice C/C++ e OpenGL (con programmi accessori scritti in MATLAB e Mathematica), finalizzata alla sperimentazione e alla verifica delle caratteristiche dei metodi presentati.
Resumo:
Il lavoro della presente Tesi è stato lo sviluppo della sintesi asimmetrica di aziridine chirali a partire da chetoni α,β-insaturi α-sostituiti, verificando la possibilità di applicare ammine primarie come organocatalizzatori attraverso un meccanismo tandem ione imminio-enammina. Nelle nostre prove le migliori ammine primarie si sono rivelate gli pseudoenantiomeri 9-ammino-9-deossi-epi-idrochinina e idrochinidina, e i migliori acidi per formare il sale catalitico sono stati acido trifluoroacetico (TFA) e acido salicilico. Il fattore chiave per le reazioni di aziridinazione è stata la scelta della molecola sorgente di azoto, che deve avere comportamento nucleofilico nel primo step di aza-Michael (via ione imminio), e comportamento elettrofilico nello step di chiusura del ciclo (via enammina). Le prove preliminari sono state condotte con il sale catalitico formato dalla 9-ammino-9-deossi-epi-idrochinina e TFA in toluene a 50 °C. Migliori risultati sono stati ottenuti sostituendo la sorgente di azoto utilizzata inizialmente e utilizzando il sale catalitico composto da 9-ammino-9-deossi-epi-idrochinidina e acido salicilico in toluene a 50 °C. In questo caso la resa è stata pari a 56% ed eccesso enantiomerico (ee) del 90%. Sfruttando quindi le condizioni ottimizzate inizialmente, abbiamo provato la reazione su altri due chetoni con maggiore ingombro sterico rispetto a quello utilizzato per l’ottimizzazione iniziale del processo. In entrambi i casi la reattività è stata sensibilmente inferiore a quanto atteso, con rese non superiori al 14%. Inoltre anche i valori di ee sono stati poco soddisfacenti. Ipotizziamo che questi risultati deludenti siano causati dall’ingombro sterico della catena in posizione β che impedisce l’avvicinamento del catalizzatore, il quale, non creando un intorno asimmetrico, non crea una distinzione tra le due possibili direzioni di attacco del nucleofilo. Da questi ultimi risultati sembra che la reazione di aziridinazione da noi ottimizzata sia per ora limitata al solo chetone utilizzato nella fase iniziale del lavoro. Al fine di estendere l’applicazione di queste condizioni, nel futuro saranno effettuate prove anche con altri chetoni α,β-insaturi α-sostituiti, ma che non presentino sostituzione in posizione β, dato che abbiamo osservato che essa rappresenta il maggiore limite per la reattività e selettività. Infine sarà importante determinare la configurazione assoluta del prodotto finora ottenuto, mediante spettroscopia ECD e VCD. E’ infatti importante conoscere tutte le caratteristiche chimiche e fisiche di prodotto ottenuto, in modo da avere maggiore conoscenza del processo da noi sviluppato, per poterlo migliorare ed estenderne l’applicabilità in futuro.
Resumo:
Il presente studio ha come obiettivi l’analisi, la modellazione numerica e la caratterizzazione del rischio idrogeologico di due siti dell’Appennino bolognese interessati negli ultimi due anni da colate detritiche, Serraglio (Comune di Castiglione dei Pepoli) e Chiapporato (Comune di Camugnano). Lo studio è stato condotto in collaborazione con il Servizio Tecnico di Bacino Reno della Regione Emilia-Romagna, che ha reso disponibile la documentazione relativa ai due eventi analizzati. I predetti eventi possono esser definiti “anomali” in relazione sia alla loro collocazione – essendo il fenomeno delle colate detritiche diffuso principalmente in aree montuose caratterizzate da un’altitudine media rilevante, come l’arco alpino – sia al fatto che non sono né catalogati né ricordati a memoria d’uomo eventi, in tali località, precedenti a quelli in esame. Il rischio idrogeologico, indotto dalla possibilità non remota di nuovi eventi, è dato non dal volume o dall’area interessata dai fenomeni, ma piuttosto dall’estrema velocità caratterizzante le colate detritiche, appunto definite come manifestazioni parossistiche lungo la rete idrografica secondaria con trasporto in massa di sedimenti. L’analisi effettuata ha anche fornito l’occasione per effettuare un confronto tra due realtà, quella di Serraglio e quella di Chiapporato, accomunate dalla stessa tipologia di evento, ma differenti in relazione all’uso del suolo, alle caratteristiche geomorfologiche e alle modalità di propagazione nel corso dell’evento. L’abitato di Serraglio, sito nella frazione di Baragazza, è stato colpito da una colata detritica il 20 gennaio 2009. Da un punto di vista geologico e geomorfologico la località è sovrastata da un versante boscato notevolmente acclive, caratterizzato dall’affioramento della cosiddetta Formazione di Cervarola: tali rocce, appartenenti alla categoria delle arenarie e solitamente presenti in strati compatti, in seguito alla naturale degradazione dovuta agli agenti atmosferici hanno dato luogo ad un detrito composto da blocchi e ciottoli di varia dimensione immersi in una matrice sabbiosa. Il distacco è avvenuto proprio in questo materiale detritico, reso instabile dal notevole apporto pluviometrico verificatosi nei giorni precedenti. La colata, sviluppatasi in seguito alla fluidificazione del materiale coinvolto in uno scivolamento di detrito di ridotta volumetria, si è incanalata in uno dei rii effimeri che drenano il versante con traiettorie tra loro pseudo parallele. Il debris flow, accelerato da un dislivello complessivo di 125 m, ha poi raggiunto due abitazioni, fortunatamente non abitate al momento dell’evento, depositando uno spessore detritico di oltre 1,5 m nella zona di transito prima di proseguire verso valle nella sua frazione più fine, incanalandosi di fatto lungo lo stradello asfaltato di accesso alle abitazioni e interessando la strada provinciale che collega Castiglione dei Pepoli all’uscita autostradale di Roncobilaccio. Da un punto di vista meteo-climatico il mese di gennaio 2009 è stato caratterizzato da precipitazioni fortemente superiori alla media, accompagnate da una ridotta insolazione. La continua oscillazione dello zero termico tra 0 e 900 m ha dato luogo alla formazione di uno spessore nivale al suolo di circa 20 cm tre giorni prima dell’evento e poi al suo rapido scioglimento contestualmente all’aumento termico, dato dalla risalita di aria calda umida di origine africana, accompagnata da quella perturbazione che ha poi di fatto innescato il fenomeno. Nelle 48 ore precedenti l’evento sono stati registrati apporti nivo-pluviometrici corrispondenti ad oltre 130 mm, che hanno causato la completa saturazione del detrito superficiale, l’innesco dello scivolamento di detrito e la sua successiva fluidificazione. Il distacco del materiale detritico, la sua movimentazione e la notevole erosione che ha caratterizzato l’alveo del rio durante il fenomeno – quantificata mediamente in 20 cm – sono state favorite dalle mediocri condizioni di salute del castagneto che copre il versante interessato dall’evento: la totale assenza di manutenzione e l’abbandono della coltivazione “a pali” del bosco hanno inibito la naturale funzione stabilizzante del boscato, trasformatosi da fattore inibente a fattore predisponente il fenomeno. La seconda colata detritica analizzata ha invece interessato la strada comunale che collega la frazione di Stagno all’abitato di Chiapporato, splendida borgata cinquecentesca, frequentata soprattutto da turisti ed escursionisti durante la stagione estiva. Il versante sede della colata, occorsa in data 8 novembre 2010, è caratterizzato da numerosi affioramenti della cosiddetta Formazione di Stagno, arenarie intervallate da strati marnoso-pelitici. Tale litotipo, soggetto alla naturale degradazione indotta dagli agenti atmosferici, origina un detrito composto da massi e ciottoli, raccoltisi, nell’area in esame, in un canalone posto ai piedi di una scarpata pseudo verticale delimitante il pianoro di “Val di Sasso”. Tale materiale detritico è stato poi fluidificato dalle abbondanti piogge, depositando, dopo oltre 320 metri di dislivello, circa un metro di detrito sul piano stradale per poi proseguire la sua corsa verso il Torrente Limentra e il Bacino di Suviana. L’evento è stato innescato da precipitazioni intense e persistenti che hanno depositato al suolo oltre 69 mm di pioggia in 25 ore. Nel mese precedente il fenomeno sono stati misurati oltre 530 mm di pioggia, quantitativi superiori alla media climatologica, che hanno sicuramente accelerato anche la degradazione della scarpata e l’accumulo di detriti nell’area sorgente. Le colate sopra descritte sono state poi simulate utilizzando il modello DAN-W (Dynamic ANalysis) del prof. Oldrich Hungr della University of British Columbia (Canada). Tale modello si basa su una discretizzazione della massa movimentata tramite il metodo degli “elementi di contorno” e sulla soluzione alle differenze finite di tipo Lagrangiano dell’equazione di De Saint Venant. L’equazione del moto, integrata verticalmente, è applicata a colonne strette di flusso (elementi di contorno). L’equazione di continuità è invece risolta riferendosi agli elementi di massa delimitati dai predetti elementi di contorno. Il numero di incognite principali eguaglia il numero di equazioni disponibili ed il problema è quindi completamente determinato. Gli altri parametri caratterizzanti la colata sono determinati tramite interpolazioni basate sull’ipotesi che sia la superficie del flusso sia quella della traiettoria siano ragionevolmente lisce. La soluzione è esplicita ed avviene per step temporali successivi. Al fine della determinazione dei parametri l’utilizzatore ha la possibilità di scegliere tra vari modelli reologici, quantificanti il termine di resistenza caratterizzante il moto. Su indicazione dell’autore del modello sono stati utilizzati il modello frizionale e quello di Voellmy, che, in casi simili, forniscono risultati più realistici (in relazione alla modellizzazione di colate di detrito). I parametri utilizzati per la calibrazione sono lo spessore di detrito depositato sul piano stradale, nel caso di Chiapporato, e a tergo della prima abitazione investita dalla colata nel caso di Serraglio, unitamente alla massima distanza raggiunta dai detriti. I risultati ottenuti utilizzando il modello reologico frizionale mostrano profili di velocità scarsamente rappresentativi, con una costante sovrastima della stessa, a fronte di una migliore capacità descrittiva degli spessori accumulatisi. Il modello di Voellmy ha invece prodotto andamenti di velocità più realistici, confrontabili con i valori forniti dalla letteratura internazionale, riuscendo al contempo a quantificare con precisione l’accumulo di detrito rilevato a seguito degli eventi. I valori dei parametri utilizzati nella modellazione sono stati ricavati dalle indicazioni dell’autore del modello affiancate dai range resi disponibili dalla letteratura. Entrambe le caratterizzazioni reologiche sono poi state oggetto di un’analisi di sensitività ai fini di quantificare il peso dei parametri utilizzati. Il modello frizionale si è rivelato particolarmente sensibile all’andamento del coefficiente di attrito basale e al coefficiente di pressione dei pori, con un lieve preponderanza del primo, mentre il modello reologico di Voellmy si è mostrato fortemente influenzato dal coefficiente di turbolenza e dal coefficiente di attrito, pressoché paritari nell’effettivo condizionamento dei risultati. Gli output ottenuti simulando l’evento di Serraglio sono risultati generalmente meno realistici di quelli ricavati nel caso di Chiapporato: ciò è probabilmente dovuto alle caratteristiche reologiche proprie del fenomeno occorso a Serraglio, classificabile come un ibrido tra un mud flow e un debris flow. Sono state infine avanzate proposte di intervento e di monitoraggio dei siti indagati, al fine di una mitigazione del rischio idrogeologico gravante sulle aree esaminate. Il caso di Serraglio presenta, a parere dello scrivente, un rischio idrogeologico più elevato, se paragonato a quello presente a Chiapporato, dati la vicinanza ad un centro abitato e lo status quo caratterizzante il versante sede del dissesto. Nei circa 18 mesi trascorsi dopo l’evento è stato possibile rilevare un progressivo ampliamento della nicchia di distacco dello scivolamento, poi evolutosi in colata con andamento tipicamente retrogressivo. Lo stato della vegetazione permane in condizioni problematiche, con frequenti ribaltamenti e sradicamenti (processi noti in letteratura come chablis) dei castagni presenti, con un conseguente aumento dell’erosione superficiale del versante e l’apporto detritico all’interno del rio. Tale detrito è poi trattenuto all’interno dell’alveo da una serie di briglie naturali formatesi a seguito della caduta di varie piante all’interno del canale stesso a causa del passaggio del debris flow o a fenomeni di chablis. La forte sovraescavazione occorsa in occasione della colata ha poi favorito l’innesco di una serie di piccoli scivolamenti superficiali confluenti nel rio stesso, anch’essi apportatori di detrito, ingrediente principale per un nuovo debris flow. È inoltre da notare come la zona di runout è tuttora parzialmente occupata dal detrito depositatosi a seguito dell’evento: tale configurazione, causando di fatto una riduzione della potenziale area di “sfogo” di un nuovo debris flow, acuisce il rischio di un’estensione areale verso valle degli effetti di un nuovo fenomeno, con un conseguente possibile maggior coinvolgimento dell’abitato di Serraglio. È stato quindi proposto di attuare un’adeguata regimazione dell’area boschiva caratterizzante il versante, unitamente ad una regimazione fluviale del rio, tramite la realizzazione di briglie in legno e pietrame – essendo l’area non cantierabile – e la rimozione degli accumuli detritici in seno all’alveo stesso. La nicchia di distacco principale e le nicchie secondarie dovranno poi essere oggetto di opportuna stabilizzazione. Più a valle è stata suggerita la rimozione dell’accumulo detritico presente nell’area di runout e la realizzazione di un’adeguata opera di ricezione delle acque del rio e di eventuali nuove colate: a tal fine si è ipotizzato il ripristino dell’antico alveo, successivamente deviato e tombato per permettere l’edificazione dell’abitazione poi investita dalla colata. È stato inoltre proposto un monitoraggio attraverso l’installazione di un pluviometro, tarato con opportune soglie di allarme, dotato di datalogger e modem GPRS al fine di comunicare in tempo reale, ai tecnici incaricati e agli abitanti, un eventuale superamento della soglia di allarme. Il caso di Chiapporato è invece caratterizzato da problematiche connesse al rischio idrogeologico meno rilevanti di quelle presenti a Serraglio. Ciò è dovuto allo scarso traffico caratterizzante la strada comunale e all’assenza di altri edifici o infrastrutture potenzialmente coinvolgibili da un nuovo evento. La probabilità del verificarsi di una nuova colata è però concreta, considerata la forte erosione caratterizzante il versante: trascorsi sei mesi dall’evento, è stato possibile rilevare nell’area sorgente un accumulo medio di detrito di circa mezzo metro di spessore. Le cause del dissesto, a differenza di Serraglio, non sono in alcun modo imputabili all’azione antropica: si tratta infatti della naturale evoluzione del versante sovrastante il piano stradale. Si propone quindi la collocazione di cartelli stradali indicanti il pericolo di caduta massi e colate detritiche agli automobilisti e ai pedoni, unitamente all’installazione di un cavo a strappo posto lungo l’alveo torrentizio collegato ad un semaforo dislocato nei pressi del guado della strada comunale sul rio Casale. L’eventuale verificarsi di un nuovo evento comporterebbe la lacerazione del cavo installato e l’attivazione del semaforo – e di un eventuale allarme acustico – con conseguente inibizione del traffico stradale in occasione del transito del debris flow. Nel contesto geologico e geomorfologico dell’Appennino tosco-emiliano i debris flow rappresentano una tipologia di dissesto da frana poco diffusa, ma comunque potenzialmente presente nelle aree dove i processi di alterazione e degradazione degli ammassi rocciosi affioranti generino accumuli di detrito e in condizioni morfologiche caratterizzate da elevate pendenze dei versanti. Questo studio ha permesso di approfondire la conoscenza di questi fenomeni, che presentano una magnitudo notevolmente inferiore rispetto al contesto alpino, ma la cui interferenza con l’attività antropica acuisce notevolmente il rischio idrogeologico nelle zone interessate. Si sottolinea, inoltre, che nell’attuale contesto climatico caratterizzato da sempre più frequenti piogge brevi ed intense ed eventi cosiddetti di rain on snow, la frequenza sia temporale che spaziale di tali fenomeni di dissesto appare destinata ad aumentare, anche in aree in precedenza non interessate.
Resumo:
Le conoscenze relative al controllo ormonale del metabolismo epatico dei pesci sono ancora piuttosto limitate e per molti anni sono state controverse. Per lungo tempo si è ritenuto che le catecolamine, adrenalina e noradrenalina, agissero nel fegato dei pesci soltanto attraverso i recettori adrenergici di tipo β. Quindi l’assetto recettoriale dei mammiferi, che comprende recettori α e β, era considerato frutto di un processo evolutivo che non aveva ancora avuto luogo nei pesci. Successivamente, nel fegato di vari teleostei è stata dimostrata la presenza di recettori sia α che β. Tuttavia il ruolo fisiologico dei due tipi di recettori non è ancora chiaro. Per esempio, in acciughe e sgombri non è stato fatto alcuno studio sulla risposta alle catecolamine ottenuta attraverso i recettori α e β, nel fegato di trota i recettori α non sono accoppiati alla cascata fisiologica che porta al rilascio di glucosio, e in anguilla e pesce gatto l’azione delle catecolamine attraverso recettori β è predominante rispetto a quella attraverso recettori α. L’utilizzo di ligandi farmacologici non ha portato a chiarimenti significativi, perché la loro specificità per i recettori di mammifero non trova sempre riscontro nei pesci. In questo studio, quindi, abbiamo studiato l’espressione dei geni codificanti per i recettori α e β adrenergici attraverso la tecnica della PCR real time, ottenendo i primi dati in letteratura per quanto riguarda la loro quantificazione assoluta. L’organismo modello utilizzato è stata l’anguilla, teleosteo caratterizzato da un ciclo biologico molto particolare in cui si distinguono nettamente una fase gialla ed una argentina. Le anguille argentine non sono mai state studiate a tale proposito, e date le estreme differenze nella disponibilità e nell’uso delle risorse energetiche in questi due stadi di crescita, il presente studio ha mirato a valutare la differente sensibilità alle catecolamine da parte degli epatociti isolati da anguille gialle ed argentine. I nostri dati hanno confermato quanto solo ipotizzato nei vari studi pubblicati negli ultimi due decenni, ma mai avvalorato da risultati sperimentali, cioè che i recettori α e β sono contemporaneamente espressi negli epatociti dell’anguilla, sia gialla che argentina, e la proporzione tra loro giustifica il ruolo significativamente maggiore giocato dai recettori β. Nelle anguille argentine infatti, come nelle gialle, l’effetto dell’adrenalina sul rilascio di glucosio ottenuto attraverso recettori β è chiaramente predominante. Inoltre, i nostri dati indicano che in due diverse fasi del ciclo vitale dell’anguilla, così come si osserva nell’ontogenesi dei mammiferi, i recettori adrenergici sono espressi in quantità differente.
Resumo:
Perché L’Aquila? A seguito del sisma del 2009, L’Aquila offre un’occasione per riflessioni su temi urbanistici e di composizione urbana, oltre che un reale campo di sperimentazione architettonica. Perché il centro storico? Come cuore culturale ed economico dell’intera vallata dell’Aterno, il centro storico rappresenta una priorità per la Ricostruzione; il suo valore storico è la sintesi consolidata nel tempo del rapporto di una società con i luoghi della propria residenza. Una memoria da difendere attraverso l’elaborazione di strategie di intervento e idee di progetto. Qual è l’obiettivo? Il lavoro di ricerca e di progettazione mira ad individuare degli scenari e proporre delle idee di ricostruzione per tornare ad abitare il centro storico. Qual è il metodo? Per affrontare una situazione così complessa è indispensabile una conoscenza storica della struttura urbana della città prima del sisma. Inoltre è necessario comprendere l’evoluzione degli eventi (da aprile del 2009 al luglio 2011) al fine di riconoscere quali direzioni possibili può prendere un progetto che si inserisce, oggi, in un sistema ancora in cerca di un equilibrio. La Ricostruzione, intesa come processo strategico e progettuale di ridefinizione degli equilibri e delle prospettive, consente, ma forse ancor meglio esige, un ripensamento complessivo ed organico dell’intera struttura urbana. Si tratta quindi di ridefinire le relazioni tra la città storica e la sua periferia comprendendo il rapporto che un progetto di Ricostruzione può avere nel medio e lungo termine, il tutto in un contesto economico e soprattutto sociale in forte trasformazione. Il progetto propone così un nuovo complesso di residenze universitarie che potrà accogliere settantadue studenti insieme a diversi servizi quali sale lettura, sale polivalenti e una mensa. Si prevede inoltre il potenziamento della struttura di accoglienza dei salesiani con 8 nuovi alloggi per professori e una nuova Biblioteca. Il progetto vuole ricreare una continuità nel sistema del verde urbano come mezzo più appropriato e idoneo per relazionare la prima periferia alla città murata.
Resumo:
Gli organismi biologici mostrano ricorrenti dinamiche di auto-organizzazione nei processi morfogenetici che sono alla base di come la materia acquisisce gerarchia e organizzazione.L’omeostasi è la condizione con la quale un corpo raggiunge il proprio equilibrio (termico, pressione, ecc.); un processo attraverso il quale questi sistemi stabilzzano le reazioni fisiologiche. Una delle caratteristiche fondamentali esibite da tali organismi è la capacità della materia di instaurare processi di auto-organizzazione, responsabile dei processi di ottimizzazione che guidano all’uso efficiente dell’energia nella lotta per la sopravvivenza. Questa ottimizzazione non mira al raggiungimento di un risultato globale deterministico e “chiuso” (precedentemente stabilito e poi perseguito ad ogni costo), quanto piuttosto al raggiungimento di un’efficienza di processi locali con obiettivi multipli e necessità divergenti; tali processi interagiscono organizzando sistemi nei quali proprietà peculiari uniche emergono dalle interazioni descritte. Le esigenze divergenti non sono negoziate sulla base di un principio di esclusività (una esigenza esclude o elimina le altre) ma da un principio di prevalenza, dove le necessità non prevalenti non cessano di esistere ma si modificano in funzione di quelle prevalenti (il proprio campo di espressione è vincolato dai percorsi tracciati in quello delle esigenze prevalenti). In questa tesi si descrive un’applicazione ad uno specifico caso di studio di progettazione architettonica: un parco con spazi polifunzionali nella città di Bologna. L’obiettivo principale del progetto Homeostatic Pattern è quello di dimostrare come questo tipo di processi possano essere osservati, compresi e traslati in architettura: come per gli organismi biologici, in questo progetto gli scambi di materia ed energia (stabilità, respirazione, porosità alla luce) sono regolati da sistemi integrati efficienti piuttosto che da raggruppamenti di elementi mono-ottimizzati. Una specifica pipeline di software è stata costituita allo scopo di collegare in modo bidirezionale e senza soluzione di continuità un software di progettazione parametrica generativa (Grasshopper®) con software di analisi strutturale ed ambientale (GSA Oasys®, Autodesk® Ecotect® analysis), riconducendo i dati nella stessa struttura attraverso cicli di feedback. Il sistema così ottenuto mostra caratteristiche sia a scala macroscopica, come la possibilità di utilizzo della superficie esterna che permette anche un’estensione dell’area verde (grazie alla continuità della membrana), sia alla scala del componente, come la propria capacità di negoziare, tra le altre, la radiazione solare e la modulazione della luce, così come la raccolta capillare delle acque meteoriche. Un sistema multiperformante che come tale non persegue l’ottimizzazione di una singola proprietà ma un miglioramento complessivo per una maggiore efficienza.
Resumo:
Questo lavoro si pone in continuità rispetto al Laboratorio di Sintesi “La città e le case”, nel corso del quale si sono condotti un’analisi del territorio di Ravenna, in particolar modo della Darsena di Città, e uno studio dei possibili scenari di rigenerazione urbana dell’area industriale dismessa del canale Candiano. L’area della Darsena è stata “dimenticata” dagli strumenti di pianificazione per molto tempo, soltanto a partire dagli anni ’90 l’Amministrazione Comunale si è interessata al suo recupero, senza però particolare successo. L’intento di questo lavoro è quello di ripensare l’intero comparto della Darsena di Città attraverso un progetto di rigenerazione urbana che miri a collegare quest’area con la città storica e a ricreare il rapporto tra questa e l’acqua attraverso più fasi distribuite nell’arco dei prossimi 30 anni. Il progetto si pone in continuità con la città esistente ma allo stesso tempo punta a migliorarne alcuni aspetti critici: la mancanza dell’affaccio della città sull’acqua, la cesura nel tessuto urbano dovuta alla presenza dell’infrastruttura ferroviaria e della darsena. Le modalità di sviluppo del progetto per Ravenna riprendono l’esperienza tedesca di HafenCity ad Amburgo dove, dopo un masterplan generale per tutta l’area portuale da recuperare, si è proceduto con concorsi per ciascun edificio così da ottenere una grande varietà architettonica. Maggiore attenzione viene data al progetto degli spazi pubblici poiché la fruizione di essi da parte della collettività e l’attaccamento a questi luoghi possono essere gli elementi trainanti per la riqualificazione dell’intera area. Il progetto degli spazi pubblici è pensato come un sistema unitario poiché deve essere l’elemento che guida, “coordina” e uniforma il progetto del costruito.
Resumo:
La presente tesi si pone in continuità con il Laboratorio di Sintesi Finale in Urbanistica “La città e le case. L’urbanistica e lo spazio dell’abitare”e si propone di applicare e sperimentare una nuova forma urbana quella dell’open block derivante dall’omonima teoria dell’architetto francese Christian de Portzamparc. L’intervento si inserisce all’interno della cosiddetta Darsena di Città di Ravenna, un’ex area industriale di 136 ettari collocata a ridosso del centro storico della città, ma priva di collegamenti diretti con questo da cui si discosta nettamente per caratteristiche e funzioni. Nel corso del laboratorio si sono condotte analisi in maniera approfondita rispetto alle caratteristiche dello stato di fatto e dei bisogni principali del territorio, non solo facendo riferimento agli stessi strumenti urbanistici, ma anche avvalendosi dell’incontro con professionisti, tecnici e docenti. La conoscenza dell’area così raggiunta ci ha permesso di redigere, a conclusione del laboratorio, una serie di linee guida generali da cui nasce il masterplan. Su questo si basa la riqualificazione urbana dell’intera area da cui deriva la peculiarità della nuova Darsena ovvero la coesistenza di due rive dalle caratteristiche opposte e allo stesso tempo complementari. A nord trova spazio la “riva naturale” contraddistinta dalla prevalenza di spazi verdi di diversa natura; questa riva si pone in stretta relazione con il verde agricolo collocato nelle immediate vicinanze della Darsena e fortemente segnato dalla centuriazione romana. La riva sud, la “riva urbana”, è invece caratterizzata dalla prevalenza del costruito che trova un diretto confronto con il tessuto urbano preesistente collocato sia all’interno dell’area sia lungo il limite sud della stessa. Grande importanza per la riqualificazione del Comparto Darsena è stata data al mantenimento degli edifici di archeologia industriale ai quali viene dato ruolo centrale attraverso le nuove funzioni che vengono loro affidate. Altro aspetto fondamentale per la riuscita della riqualificazione della Darsena e allo stesso tempo valoreaggiunto per l’intero territorio comunale, nonché argomento centrale della presente tesi, è il tema dell’housing sociale. A seguito di analisi, studi sulle politiche abitative attualmente vigenti a livello regionale e comunale e indagini sui bisogni radicati nel territorio, si è redatto un masterplan da cui nasce un progetto per un quartiere con housing sociale situato all’interno del comparto CMC. Il progetto nasce dalle riflessioni condotte sull’argomento, mette al centro l’idea della mixité e si fonda sulla forma urbana dell’isolato aperto.
Resumo:
Questo lavoro di tesi è frutto di uno studio sull’addizione viniloga enenantioselettiva di sistemi 3-alchilidenossindolici a nitrotrirene utilizzando un catalizzatore bifunzionale in grado di attivare la posizione gamma del suddetto ossindolo, per mezzo di una reazione acidobase, e di attivare il nitrostirene attraverso interazione via legame a idrogeno. Questo progetto nasce come novità assoluta nel mondo dell’organocatalisi.
Resumo:
"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.
Resumo:
Abbiamo analizzato compiutamente la conformazione attuale della città di Bologna, individuandone gli elementi caratterizzanti, i punti di forza e le criticità, per riuscire a riconnetterla sia al tessuto del centro storico sia a quello rurale. Il tipo di metodo scelto riprende in parte quello utilizzato nell’analisi delle mappe storiche, lavorando attorno a tre temi fondamentali: spazi aperti, tessuto urbano e viabilità. La consapevolezza profonda della realtà e delle dinamiche presenti ci ha portato ad individuare la soluzione che riteniamo essere più funzionale per la riconnessione delle differenti zone, utilizzando la fascia come filtro tra campagna e città. L’obiettivo individuato è quello di sfruttare la linea ferroviaria in disuso convertendola in una linea di tram-treno, una infrastruttura elettrica e a basso impatto ambientale che funzioni in modo agile e puntuale contribuendo in maniera significativa alla mobilità da e verso il centro storico di Bologna, con fermate nei principali fatti urbani come il complesso fieristico, la nuova sede comunale, il centro di ricerca, il polo universitario, i centri sportivi e commerciali. Parte della stessa linea ferroviaria, in particolare il tratto ovest, verrà riqualificato creando un parco lineare sulla sede della linea stessa, come realizzato a Parigi per la “promenade plantée” o a New York con la “highline”, restituendo ai bolognesi un percorso cittadino che valorizzi la natura, la riflessione ed il benessere. Un collegamento tra diverse aree urbane caratterizzato da un flusso più lento esclusivo dei pedoni e dei ciclisti, che trova una sua continuità naturalistica ad ovest andando a collegarsi al parco fluviale del canale Reno, proseguendo invece ad est parallelamente alla linea di tram-treno, creando una continuità di percorsi ciclo-pedonali che si integrano agli esistenti raggiungendo le zone centrali della città. L’intento è quello di incanalare il flusso non carrabile proveniente dalle aree rurali e dalla tangenziale, anche attraverso parcheggi scambiatori, in un percorso privilegiato, funzionale e naturalistico che permetta di raggiungere il centro storico e anche la zona collinare risalendo lungo il parco fluviale, dando ai fruitori la possibilità di osservare Bologna con più tranquillità e da un punto di vista nuovo.
Resumo:
Agricoltura ed Energia sono le due parole cardine attorno a cui ruota questa tesi. La prima si trova ad oggi ad essere investita da enormi aspettative: ha implicazioni economiche, sociali, ambientali e territoriali. Offre opportunità occupazionali nelle aree rurali, favorisce il mantenimento di un tessuto sociale, ha funzioni produttive e di tutela ambientale. In Italia è profondamente diffusa ma mantiene caratteristiche molto differenti legate ai prodotti, al territorio e al paesaggio agrario. Andrebbe quindi meglio conosciuta, tutelata, ma soprattutto rinnovata per essere efficientemente inserita nel contesto dello sviluppo del nostro Paese. Ricercando nuove soluzioni e nuove idee, che dovrebbero essere alla base della ripresa dal periodo di crisi, ci si collega al secondo termine, meglio definito con un aggettivo descrittivo: rinnovabile. L'utilizzo di queste fonti è alla base delle odierne necessità di risparmio energetico e dell'uso razionale delle energie. Il primo passo è annullare gli sprechi incrementando lʼefficienza dei dispositivi che producono energia. Vengono qui analizzate diversi impianti ad energie rinnovabili proposti in un luogo specifico che si presta a vedere le diverse fonti agire in sinergia ed a servizio dell'agricoltura che rimane la vocazione principale del luogo in esame. La sinergia diventa quindi la chiave di lettura della tesi in quanto le rinnovabili sono caratterizzate da una imprevedibile variabilità per cui risulta funzionale un sistema integrativo che porti il progetto finale ad avere una maggiore continuità nel servizio in ogni periodo dell'anno.
Resumo:
Fino a qualche anno fa, la conversione di documenti cartacei in documenti digitali appariva come una vera e propria utopia. Quest’oggi invece pensiamo al digitale di qualsiasi tipologia come fosse un fattore prioritario, scontato ed immediato, da poterlo considerare una vera a propria dipendenza. Mentre una volta i documenti venivano depositati in archivi talvolta rudi e polverosi, spiacevoli da recuperare, sia per tempistiche sia per condizioni, oggi la quotidianità è così frenetica che occorre ottenere tutto in modo tempestivo. Un’ evoluzione socio-culturale ha portato all’elaborazione di tecniche sempre più sofisticate di ottimizzazione nel campo; si parla di “dematerializzazione dei documenti” o “processo di conservazione sostitutiva”, innovazione che ha determinato una vera e propria rivoluzione nella Pubblica Amministrazione, nei rapporti tra privati, nell’Ordinamento Giuridico e nella scienza del diritto, poiché è radicalmente mutata la concezione di “documento” così com’è conosciuto da migliaia di anni, nella sua natura res signata, “cosa “ che riporta informazioni. Il concetto di ”smaterializzazione” non è un’ assoluta novità se si pensa alle transazioni finanziarie di enormi quantità di denaro, che da anni avvengono in tutto il mondo, grazie a “documenti informatici”, senza che passi di mano una sola banconota. Lo scopo di questa tesi è approfondire il processo di conservazione sostitutiva, partendo dalle figure ad esso legate, per poi continuare con le regole tecniche di adozione, la validità probatoria dei documenti informatici, i formati, i metadati utilizzati, e così via.