78 resultados para assoluta continuità


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scopo di questo lavoro di tesi è quello di sperimentare “sul campo’’ la validità e l'efficacia di tecniche SBR per il trattamento delle acque domestiche per case sparse e nuclei isolati. Tuttavia quella SBR, pur essendo una tecnica impiantistica, può soddisfare queste esigenze. Grazie alla presenza di un adeguato volume d'accumulo ed al funzionamento ciclico dell'impianto sono annullati tutti i problemi determinati, nei normali impianti in continuo, dalla discontinuità dell'afflusso di reflui (picchi di portata). L'impianto è studiato per ridurre la necessità di manutenzione al minimo: tutte le apparecchiature tecniche sono collocate in un armadio esterno all'impianto ed in vasca ci sono solo le tubazioni. Ciò esclude ogni presenza interna al serbatoio di apparecchiature elettriche e di parti in movimento soggette a usura. Il vantaggio è evidente nella semplificazione delle operazioni di gestione/controllo/manutenzione dell’impianto che non richiedono, di norma, lo svuotamento della cisterna e consentono operazioni più agevoli e sicure.Tutti i movimenti di processo sono supportati da tre sistemi Air Lift azionati da un unico compressore che provvede anche all'immissione dell'ossigeno attraverso l'aeratore tubolare a membrana nella vasca SBR. Il compressore si caratterizza per lunga vita operativa e assoluta silenziosità di funzionamento. Per verificare l’efficacia del processo depurativo indotto dall’impianto SBR installato dalla GreenSolar abbiamo fatto dei prelievi sul liquame in entrata alla camera SBR e su quello in uscita da essa. I campioni così prelevati sono stati analizzati da un laboratorio autorizzato.I valori limite imposti dal DGR n. 1053 sono ampiamente rispettati, tuttavia i risultati ottenuti non sono soddisfacenti relativamente alle potenzialità dell'impianto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’oggetto di questa tesi è un intervento di rigenerazione, riqualificazione ed adeguamento di un comparto residenziale di circa 22 ettari a Corticella, zona del quartiere Navile, pianificato tramite il PEEP di Bologna del 1963 e realizzato tra gli anni 70 e 80 del secolo scorso. L'area si trova nella periferia nord di Bologna ai limiti con la campagna e comprende 34 fabbricati, di cui 27 residenziali. L'evoluzione economico sociale degli ultimi decenni ha causato l'insorgenza di diverse criticità dell'area, tra cui:  scarsa efficienza energetica degli edifici con elevati costi di esercizio;  inadeguatezza sismica degli edifici;  bassi livelli di comfort abitativo;  scarsa varietà dei tagli degli alloggi;  scarsa qualità degli spazi pubblici e di relazione;  mancanza di connessioni a livello urbano (sia in termini di continuità morfologica che di viabilità). L'obiettivo che si pone la tesi è quello di adeguare l'area alle nuove esigenze, in modo da proiettarla avanti nel tempo e renderla una zona vivibile oggi e in futuro, con un progetto che tenga conto della fattibilità dell'intervento e delle caratteristiche e delle risorse degli Enti e dei proprietari privati coinvolti nella gestione dell’area. Per ottenere questi risultati, il progetto ha riorganizzato i collegamenti urbani, che oggi rendono l'area una zona emarginata, e ha previsto la riqualificazione funzionale e prestazionale degli edifici, adottando due diverse ipotesi di progetto. Per quanto riguarda la situazione urbana, si è previsto di inserire nuovi elementi per migliorare la viabilità, in particolare nuovi percorsi ciclopedonali ed uno shared space che rimette in comunicazione l'area con il centro storico di Corticella. Per la riqualificazione degli edifici sono stati selezionati due edifici campione, rappresentativi delle situazioni e tipologie più ricorrenti nell’area, che sono stati affrontati con due approcci diversi. Dell’edificio che presenta le criticità più acute, si è valutata non conveniente una riqualificazione pesante e si è quindi previsto un intervento minimo di miglioramento dell’efficienza energetica e della distribuzione interna. Per il secondo edificio invece è stato progettato l’aggiornamento del taglio degli alloggi,l’adeguamento delle prestazioni energetiche fino a raggiungere la classe energetica A(originariamente classe G), il miglioramento delle capacità antisismiche e del comfort luminoso. Gli alloggi di standard decisamente superiore a quello attuale, la riconfigurazione dello spazio di pertinenza degli edifici come shared space, e la realizzazione di nuovi collegamenti urbani migliorano l’appetibilità e il valore immobiliare degli edifici, ma anche le condizioni ambientali e l’abitabilità dell’intera area di intervento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato realizzato assieme alla creazione di un link nel sito "progettomatematic@" tratta dell'infinito in tre modi diversi: la storia, l'applicazione ai frattali e alla crittografia. Inizia con una breve storia dai greci all'antinomia di Russel; poi si parla dei frattali in natura, di misura e dimensione di Hausdorff, polvere di Cantor e fiocco di neve di Koch. Infine si trova un riassunto dei cifrari storici famosi, con particolare attenzione al cifrario di Vernam, alla teoria dell'entropia di Shannon e alla dimostrazione che otp ha sicurezza assoluta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le reti di distribuzione sono normalmente esposte ai fulmini, i quali producono sovratensioni sia da eventi diretti che indiretti. Le sovratensioni indotte, prodotte da fulminazioni indirette, sono le più frequenti nelle reti di media tensione, e sono una delle maggiori cause di guasto e di malfunzionamento dei dispositivi della rete. E’ per ciò essenziale realizzare un’accurata valutazione delle prestazioni dei mezzi di protezione delle reti di distribuzione dai fulmini al fine di migliorare la continuità e la qualità del servizio. L’obiettivo della tesi è sviluppare una procedura basata sull'algoritmo genetico in grado di determinare il numero di scaricatori ed i punti ottimali di installazione, tenendo conto della particolare configurazione della rete oggetto di studio, in modo da garantire la protezione della rete e in particolare dei componenti più vulnerabili. La procedura deve essere generica, ovvero deve risolvere il problema per una qualsiasi topologia di rete di media tensione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La misura delle distanze in astrofisica non è affatto semplice, ma è molto importante per capire le dimensioni dell'Universo e le caratteristiche dei corpi celesti. Inoltre per descrivere le enormi distanze astronomiche sono state introdotte delle apposite unità di misura, quali l'Unità Astronomica, l'anno luce e il parsec. Esistono vari modi per calcolare le distanze: i metodi geometrici, basati sulla parallasse; gli indicatori primari, utilizzano le cosiddette candele standard, cioè oggetti di cui è nota la magnitudine assoluta, per calcolare le distanze di galassie vicine, e sono calibrati sulle misure dei metodi geometrici; gli indicatori secondari, utilizzano gli indicatori primari come calibri per poter calcolare le distanze di galassie ed ammassi di galassie lontani. Quindi le distanze si calcolano attraverso una serie di passaggi successivi, creando così una vera e propria scala, in cui ogni gradino corrisponde ad un metodo che viene calibrato sul precedente. Con i metodi geometrici da Terra sono state misurate distanze fino a poche centinaia di parsec, con il satellite Ipparcos si è arrivati ai Kiloparsec e col satellite Gaia saranno note le distanze di tutte le stelle della galassia. Con gli indicatori primari è stato possibile calcolare le distanze delle galassie vicine e con quelli secondari le distanze di galassie ed ammassi lontani, potendo così stimare con la Legge di Hubble le dimensioni dell'Universo. In questo elaborato verranno analizzati diversi metodi: i vari tipi di parallasse (quella annua e di ammasso in particolare), il fit di sequenza principale per gli ammassi stellari, le stelle variabili (Cefeidi classiche, W Virginis, RR Lyrae), le Supernovae di tipo Ia, la relazione di Tully-Fisher, il Piano Fondamentale e la Legge di Hubble.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I capodogli (Physeter macrocephalus) sono mammiferi marini con distribuzione cosmopolita; sono presenti anche nel Mar Mediterraneo, soprattutto nella zona occidentale del bacino. Per individuare la presenza di questi animali possono essere utilizzate differenti modalità. Questo studio è stato condotto tramite l’uso di metodi acustici passivi, in quanto i capodogli (P. macrocephalus) sono animali che emettono suoni. L’uso di metodi acustici ha alcuni vantaggi, infatti permette di individuare la presenza di un animale anche se si trova al di sotto della superficie dell’acqua, purché stia emettendo suoni. Le registrazioni possono essere effettuate indipendentemente dalle condizioni meteorologiche e per lunghi periodi di tempo, permettendo la continuità nella raccolta dei dati. Il lavoro di tesi è stato svolto nell’ambito di un Progetto di Ricerca de L’Oceanogràfic di Valencia. Le registrazioni sono state effettuate tramite lo strumento EAR (Ecological Acoustic Recorder) in due aree del Mar Balear, il Mar di Bamba e il Parco Nazionale di Cabrera, in differenti periodi, profondità e con diverse frequenze di campionamento (50 kHz e 5 kHz). I dati ottenuti sono stati analizzati tramite i programmi X-BAT (Extensible Bioacoustic Tool) e Adobe Audition 3.0 al fine di rilevare i pulsi emessi dai capodogli. Per entrambe le aree di studio i dati sono stati elaborati in modo da ottenere modelli giornalieri e stagionali delle ore positive e del numero di pulsi emessi. La presenza di P. macrocephalus è stata confermata in entrambe le aree di studio, e dal confronto delle analisi spettrali dei pulsi si può affermare che, nonostante le differenze, i pulsi registrati in entrambe le aree sono effettivamente emessi da capodogli. Il lavoro di Tesi permette di suggerire che per futuri studi sia applicata la frequenza di registrazione di 20 kHz utilizzando lo strumento SAMARUC, alla cui progettazione ha partecipato L’Oceanogràfic di Valencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il recente sviluppo commerciale di smartphone, tablet e simili dispositivi, ha portato alla ricerca di soluzioni hardware e software dotate di un alto livello di integrazione, in grado di supportare una potenza di calcolo e una versatilità di utilizzo sempre più crescenti, pur mantenendo bassi i consumi e le dimensioni dei dispositivi. Questo sviluppo ha consentito parallelamente a simili tecnologie di trovare applicazione in tanti altri settori, tra i quali quello biomedicale. Il lavoro esposto in questa tesi si inserisce nel contesto appena descritto e, in particolare, consiste nello sviluppo di un sistema WBAN ideato per garantire maggiore flessibilità, controllo e personalizzazione nella terapia riabilitativa dei pazienti affetti da Morbo di Parkinson. In questo campo è stata dimostrata l'efficacia, in termini di miglioramento delle condizioni di vita dell'individuo, dell'esercizio fisico e in particolare di una serie di fisioterapie riabilitative specifiche. Tuttavia manca ancora uno strumento in grado di garantire più indipendenza, continuità e controllo,per le persone affette da MP, durante l'esecuzione di questi esercizi; senza che sia strettamente necessario l'intervento di personale specializzato per ogni seduta fisioterapeutica. Inoltre manca un sistema che possa essere comodamente trasportato dal paziente nelle attività di tutti i giorni e che consenta di registrare e trasmettere eventi particolari legati alla patologia, come blocchi motori e cadute accidentali. Il presente lavoro di tesi tratta della realizzazione di un Firmware per la gestione di un Nodo Centrale che funge da master in una rete WBAN a tre nodi. L'obbiettivo è quello di integrare in tale firmware le funzioni di acquisizione dati dai sensori on-board, comunicazione tra i nodi della rete e gestione delle periferiche hardware secondarie; in particolare per lo sviluppo è stato usato un Sistema Operativo Real-Time (RTOS) del quale sono esposti vantaggi e svantaggi dell’utilizzo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il teorema del viriale consiste in una relazione tra energia cinetica e energia potenziale totali di un sistema all'equilibrio. Il concetto di Viriale (dal latino vires, plurale di vis, 'forza') è stato introdotto dal fisico e matematico tedesco Rudolf Julius Emanuel Clausius (1822-1888) per indicare la quantità N
Fi •xi i=1 che rappresenta la somma, fatta su tutte le N particelle di un sistema, dei prodotti scalari del vettore forza totale agente su ciascuna particella per il vettore posizione della particella stessa, rispetto ad un riferimento inerziale scelto. Tale quantità altro non è che un'energia potenziale. Dire che un sistema di particelle è virializzato equivale a dire che esso è stazionario, cioè all'equilibrio. In questo elaborato sono di nostro interesse sistemi astrofisici gravitazionali, in cui cioè l'energia potenziale sia dovuta solo a campi gravitazionali. Distingueremo innanzitutto sistemi collisionali e non collisionali, introducendo i tempi scala di attraversamento e di rilassamento. Dopo una trattazione teorica del teorema, nell'approssimazione di continuità - per cui sostuiremo alle sommatorie gli integrali - e di non collisionalità, an- dremo a studiarne l'importanza in alcuni sistemi astrofisici: applicazione agli ammassi stellari, alle galassie e agli ammassi di galassie, stima della quantità di materia oscura nei sistemi, instabilità di Jeans in nubi molecolari, rotazione delle galassie ellittiche. Per ragioni di spazio non saranno affrontati altri casi, di cui ne citiamo alcuni: collasso delle stelle, stima della massa dei buchi neri al centro delle galassie, 'mass-to-light ratio' di sistemi sferici. Parleremo in generale di “particelle” costituenti i sistemi per intendere stelle, galassie, particelle di gas a seconda del sistema in esame. Trascureremo in ogni caso le influenze gravitazionali di distribuzioni di densità esterne al sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborato prevede lo studio delle catene anaforiche con l’obiettivo di indagare le meccaniche che guidano la scelta della ripresa, in rapporto alle caratteristiche dell’antecedente. Nel primo capitolo sarà presentato il fenomeno dell’anafora e della catena anaforica. Quindi prima di tutto sarà illustrato che cos’è un referente testuale e quando viene attivato e in seguito il focus si sposterà sulla ripresa anaforica, distinguendo anafora coreferenziale, non coreferenziale e anafore particolari. La parte finale poi sarà dedicata a un confronto tra anafora, deissi testuale e deissi situazionale. Il secondo capitolo verterà sull’anafora con identità di referente, e presenterà due importanti studi che si propongono di indagare i meccanismi che guidano la selezione della ripresa: quelli di Givòn e di Berretta. Quindi si partirà dal concetto di topicalità per arrivare al principio innovativo introdotto da Givòn, la continuità tematica (topic continuity). Successivamente sarà presentato il modello di analisi di Berretta, che si basa sullo studio di catene anaforiche “difficili”, ovvero costituite da antecedenti di rango topicale basso, opponendosi al metodo di Givòn basato su catene “facili”, con antecedenti umani, singolari e nel ruolo di soggetto. Nel terzo capitolo, invece, verrà introdotta la parte sperimentale dell’elaborato: l’annotazione di un testo per lo studio delle catene anaforiche. In questo capitolo sarà presentato nel dettaglio il modello di analisi adottato, ovvero un modello integrato che comprende le variabili considerate sia da Givòn sia da Berretta. Il procedimento di marcatura prevede l’annotazione manuale di tutti gli antecedenti (soggetti e non soggetti, umani e non umani, in ruolo sintattico topicale e non topicale) e le rispettive riprese, oltre alle unità testuali quali capitolo, paragrafo e frase. Il quarto e ultimo capitolo, invece, rappresenta l’analisi empirica dei dati estratti dal testo annotato. In questa sezione, sotto forma di tabelle e grafici, saranno presentati i dati considerando diverse variabili e correlazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il primo capitolo di questo lavoro di tesi introduce i concetti di biologia necessari per comprendere il fenomeno dell’espressione genica. Il secondo capitolo descrive i metodi e le tecniche di laboratorio utilizzate per ottenere il cDNA, il materiale genetico che verrà amplificato nella real-time PCR. Nel terzo capitolo si descrive la tecnica di real-time PCR, partendo da una descrizione della PCR convenzionale fino a delineare le caratteristiche della sua evoluzione in real-time PCR. Si prosegue con la spiegazione del principio fisico alla base della tecnica e delle molecole necessarie (fluorofori e sonde) per realizzarla; infine si descrive l’hardware e il software dello strumento. Il quarto capitolo presenta le tecniche di analisi del segnale che utilizzano metodi di quantificazione assoluta o relativa. Infine nel quinto capitolo è presentato un caso di studio, cioè un’analisi di espressione genica con real-time PCR condotta durante l’esperienza di tirocinio presso il laboratorio ICM. e delle molecole necessarie (fluorofori e sonde) per realizzarla; infine si descrive l’hardware e il software dello strumento. Il quarto capitolo presenta le tecniche di analisi del segnale che utilizzano metodi di quantificazione assoluta o relativa. Infine nel quinto capitolo è presentato un caso di studio, cioè un’analisi di espressione genica con real-time PCR condotta durante l’esperienza di tirocinio presso il laboratorio ICM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi è analizzato il caso di sensori con uscita in frequenza e periodo, si traduce in ultima analisi nella capacità di misurare con precisione un intervallo temporale. La rivelazione del tempo risulta essere lo stadio fondamentale da cui deriva la risoluzione dell'intero sistema di misura. Nella realtà, la questione della simultaneità cioè individuare con assoluta precisione due eventi che si verificano contemporaneamente, in un determinato istante t, è un problema piuttosto complesso: le difficoltà sono correlate soprattutto alle limitazioni fisiche intrinseche degli strumenti di misura. E' utile allora fornire un'analisi sui principi e le tecniche alla base della misura di intervalli temporali, detta Time Interval Measurement (TIM). Lo scopo della tesi è studiare i vari metodi per realizzare TDC lineari digitali, facendo un'analisi critica e ed evidenziando pro e contro che i vari approcci presentano, attingendo e analizzando criticamente informazioni dalle varie fonti riportate in bibliografia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si propone di investigare, mediante un approccio puramente quantitativo, il contenuto informativo e la morfologia della lingua del manoscritto di Voynich (VMS), noto per essere redatto in un alfabeto sconosciuto e tuttora non decodificato. Per prima cosa, a partire dal concetto di entropia, sviluppato nel contesto della teoria della informazione, si costruisce una misura del contenuto informativo di un testo (misura di Montemurro-Zanette); quindi, si presentano diversi esperimenti in cui viene misurata l'informazione di testi sottoposti a trasformazioni linguistiche di vario genere(lemmatizzazione, traduzione, eccetera). In particolare, l'applicazione al VMS di questa misura unita ad altre tecniche, ci permette di indagare la struttura tematica del manoscritto e le relazioni tra i suoi contenuti, verificando che esiste una continuità semantica tra pagine consecutive appartenenti a una stessa sezione. La grande quantità di hapax nel manoscritto ci porta poi a considerazioni di tipo morfologico: suggerisce infatti che la lingua del manoscritto sia particolarmente flessiva. La ricerca, in particolare, di sequenze di hapax consecutivi, ci porta a identificare -verosimilmente- alcuni nomi propri. Proprio per approfondire la morfologia della lingua si costruisce infine un grafo linguistico basato sostanzialmente sulla distanza di Hamming; confrontando la topologia di questi grafi per alcune lingue e per la lingua del VMS si osserva che quest'ultimo si distingue per maggiore densità e connessione. Traendo le conclusioni, i forti indizi a favore della presenza di un contenuto informativo nel testo confermano l'ipotesi che questo sia scritto in una vera lingua. Tuttavia, data la notevole semplicità delle regole di costruzione morfologiche, a nostro parere non sembra assimilabile ad una lingua naturale conosciuta, ma piuttosto ad una artificiale, creata appositamente per questo testo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Argomento del lavoro è stato lo studio di problemi legati alla Flow-Asurance. In particolare, si focalizza su due aspetti: i) una valutazione comparativa delle diverse equazioni di stato implementate nel simulatore multifase OLGA, per valutare quella che porta a risultati più conservativi; ii) l’analisi della formazione di idrati, all’interno di sistemi caratterizzati dalla presenza di gas ed acqua. Il primo argomento di studio nasce dal fatto che per garantire continuità del flusso è necessario conoscere il comportamento volumetrico del fluido all’interno delle pipelines. Per effettuare tali studi, la Flow-Assurance si basa sulle Equazioni di Stato cubiche. In particolare, sono state confrontate: -L’equazione di Soave-Redlich-Kwong; -L’equazione di Peng-Robinson; -L’equazione di Peng-Robinson modificata da Peneloux. Sono stati analizzati 4 fluidi idrocarburici (2 multifase, un olio e un gas) con diverse composizioni e diverse condizioni di fase. Le variabili considerate sono state pressione, temperatura, densità e viscosità; sono state poi valutate le perdite di carico, parametro fondamentale nello studio del trasporto di un fluido, valutando che l'equazione di Peng-Robinson è quella più adatta per caratterizzare termodinamicamente il fluido durante una fase di design, in quanto fornisce l'andamento più conservativo. Dopo aver accertato la presenza di idrati nei fluidi multifase, l’obiettivo del lavoro è stato analizzare come il sistema rispondesse all’aggiunta di inibitori chimici per uscire dalla regione termodinamica di stabilità dell’idrato. Gli inibitori utilizzati sono stati metanolo e mono-etilen-glicole in soluzione acquosa. L’analisi è stata effettuata confrontando due metodi: -Metodo analitico di Hammerschmidt; -Metodo iterativo con PVTSim. I risultati ottenuti hanno dimostrato che entrambi gli inibitori utilizzati risolvono il problema della formazione di idrato spostando la curva di stabilità al di fuori delle pressioni e temperature che si incontrano nella pipeline. Valutando le quantità da iniettare, il metodo di Hammerschmidt risulta quello più conservativo, indicando portate maggiori rispetto al PVTsim, soprattutto aggiungendo metanolo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro compiuto porta in evidenza un tema di grande attualità per il progetto urbano e promuove la ricerca tipologica e figurativa volta a interpretare il luogo tramite l’analisi dei caratteri, tessuti, giaciture per capirne le criticità e da queste partire, non con la pretesa di una capacità risolutiva assoluta dell’intera gamma dei problemi che lo sviluppo del territorio pone, ma come occasione per dare un assetto ordinato a una parte di città e con l’intento di mettersi a disposizione e al servizio della città stessa, costruita e attuata come accumulo indifferenziato di manufatti privo di un qualsiasi disegno generale che lo regoli. L’idea guida del progetto è stata la scelta di rivalutare, anche dal punto di vista espositivo, il carattere di museo-laboratorio proprio dell’Accademia, così da ridefinire il suo ruolo didattico. Tra la necessità di salvaguardare il carattere di Brera come Istituzione e il bisogno di trovare una collocazione più adatta alla didattica attraverso il trasferimento degli spazi dell’Accademia nel Comprensorio delle ex caserme XXIV Maggio, Carroccio, Magenta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto rappresenta una proposta, di natura architettonico-urbana, per la città di Berlino, nel settore orientale. Questa proposta è il risultato di un percorso di studi che si è dapprima confrontato sul tema della città alla grande scala, per poi focalizzarsi sul distretto della Karl-Marx-Allee lo storico brano di città socialista in Berlino Est. L’obiettivo della ricerca si cristallizza in un programma architettonico di nuova costruzione per un isolato urbano del distretto sopracitato, disorganizzato ed informale, apparentemente emarginato dalla città per opera di una serie di ‘barriere urbane’. Queste barriere, il grande attraversamento sulla Holzmarkstraße, il viadotto della S-Bahn, il fiume Sprea, nel tempo intrecciati e sovrascritti, rappresentano i limiti e confini dell’isolato urbano. L’architettura proposta vuole confrontarsi, in questo contesto incerto, con la ricostruzione dell’isolato, in fede ai principi delle ‘ricostruzione critica’. Il disegno d’architettura rivede, per analogia, i contenuti della città storica, esprimendosi attraverso un linguaggio contemporaneo ma in continuità con la storia ed il contesto. Il tema della serialità, del ritmo, scandirà un percorso architettonico geometrico e modulare molto forte e rigoroso che risponderà al carattere ripetitivo e pre-costituito dei plattenbausiedlungen, gli insediamenti prefabbricati, patrimonio materiale dell’ex distretto socialista di Berlino. La forza ritmica del progetto verrà ribadita dal recupero architettonico del viadotto in muratura del trasporto metropolitano leggero della S-Bahn, una teoria di archivolti a botte in affaccio alla Sprea. Il nuovo scenario architettonico si può considerare come un unico grande elemento tematico, organizzato da una maglia rigorosa, argomentato da eccezioni e salienti che rispondono ad un’ampia domanda funzionale, tipologica ed architettonica.