95 resultados para Polimero diretto disordine debole disordine forte energia libera funzione di partizione
Resumo:
In questo lavoro studiamo le funzioni armoniche e le loro proprietà: le formule di media, il principio del massimo e del minimo (forte e debole), la disuguaglianza di Harnack e il teorema di Louiville. Successivamente scriviamo la prima e la seconda identità di Green, che permettono di ottenere esplicitamente la soluzione fondamentale dell’equazione di Laplace, tramite il calcolo delle soluzioni radiali del Laplaciano. Introduciamo poi la funzione di Green, da cui si ottiene una formula di rappresentazione per le funzioni armoniche. Se il dominio di riferimento è una palla, la funzione di Green può essere determinata esplicitamente, e ciò conduce alla rappresentazione integrale di Poisson per le funzioni armoniche in una palla.
Resumo:
In questa tesi studiamo le proprietà fondamentali delle funzioni armoniche. Ricaviamo le formule di media mostrando alcune proprietà importanti, quali la disuguaglianza di Harnack, il teorema di Liouville, il principio del massimo debole e forte. Infine, illustriamo un criterio di risolubilità per il problema di Dirichlet per il Laplaciano in un arbitrario dominio limitato di R^n tramite un metodo noto come metodo di Perron per le funzioni subarmoniche.
Resumo:
Guidata dall'interesse per lo studio della fissione nucleare, per molto tempo la ricerca nel campo dei neutroni si è concentrata su energie medio-basse (E<20 MeV) mentre per la regione a più alte energie le informazioni risultavano scarse o mancanti. Recentemente, invece, si è sviluppato un nuovo interesse per i Neutroni di Alta Energia, utilizzabili nelle terapie mediche per la cura di tumori, e di grande importanza per la radioprotezione e la trasmutazione delle scorie radioattive derivanti da produzione di energia nucleare. Queste applicazioni richiedono precisi fasci di neutroni quasi-monoenergetici, con energie dai 20 a qualche centinaia di MeV, servono perciò misurazioni intese a determinare le caratteristiche del fascio e atte a ottenere valori precisi della sezione d'urto relativa ai processi innescati da neutroni veloci. La sezione d'urto di un certo processo nucleare si deduce dalla misura del numero di eventi acquisiti per unità di tempo da un rivelatore, conoscendo l'efficienza di questo, l'intensità del fascio che incide nel bersaglio e le caratteristiche del target. Diventa, quindi, determinante la conoscenza dell'intensità del fascio dei neutroni, anche nel caso di un intervallo energetico ampio, come quello prodotto al CERN dalla facility n_TOF, che possiede energie che vanno dal meV al GeV. Sulla base di queste motivazioni, in questo lavoro di tesi, si vuole proporre un prototipo semplice di rivelatore per Neutroni di Alta Energia e si presenta uno studio preliminare del primo test sotto fascio, focalizzando l'attenzione sulla massima energia misurabile.
Resumo:
Il lavoro presentato in questa Tesi si basa sul calcolo di modelli dinamici per Galassie Sferoidali Nane studiando il problema mediante l'utilizzo di funzioni di distribuzione. Si è trattato un tipo di funzioni di distribuzione, "Action-Based distribution functions", le quali sono funzioni delle sole variabili azione. Fornax è stata descritta con un'appropriata funzione di distribuzione e il problema della costruzione di modelli dinamici è stato affrontato assumendo sia un alone di materia oscura con distribuzione di densità costante nelle regioni interne sia un alone con cuspide. Per semplicità è stata assunta simmetria sferica e non è stato calcolato esplicitamente il potenziale gravitazionale della componente stellare (le stelle sono traccianti in un potenziale gravitazionale fissato). Tramite un diretto confronto con alcune osservabili, quali il profilo di densità stellare proiettata e il profilo di dispersione di velocità lungo la linea di vista, sono stati trovati alcuni modelli rappresentativi della dinamica di Fornax. Modelli calcolati tramite funzioni di distribuzione basati su azioni permettono di determinare in maniera autoconsistente profili di anisotropia. Tutti i modelli calcolati sono caratterizzati dal possedere un profilo di anisotropia con forte anisotropia tangenziale. Sono state poi comparate le stime di materia oscura di questi modelli con i più comuni e usati stimatori di massa in letteratura. E stato inoltre stimato il rapporto tra la massa totale del sistema (componente stellare e materia oscura) e la componente stellare di Fornax, entro 1600 pc ed entro i 3 kpc. Come esplorazione preliminare, in questo lavoro abbiamo anche presentato anche alcuni esempi di modelli sferici a due componenti in cui il campo gravitazionale è determinato dall'autogravità delle stelle e da un potenziale esterno che rappresenta l'alone di materia oscura.
Resumo:
Nell'ambito dell'industria di processo, si definisce "effetto domino" la propagazione di un evento incidentale primario dovuta all’accadimento di uno o più incidenti secondari innescati dall’evento primario, con amplificazione dell’area di danno. Un incidente con effetto domino vede infatti la presenza iniziale di uno scenario incidentale primario, solitamente causato dal rilascio di sostanze pericolose e/o dal rilascio di energia tali da determinare effetti dannosi in grado di innescare successivamente degli eventi incidentali secondari, che determinino un'intensificazione delle conseguenze dell'evento iniziale. Gli incidenti con effetto domino possono avere conseguenze all'interno dello stabilimento in cui ha origine lo scenario incidentale primario o all'esterno, eventualmente coinvolgendo, stabilimenti limitrofi: nel primo caso si parla di effetto domino intra-stabilimento, nel secondo di effetto domino inter-stabilimento. Gli ultimi decenni hanno visto un forte aumento della domanda di prodotti dell'industria chimica e dunque del numero di impianti di processo, talvolta raggruppati nei cosiddetti "chemical clusters", ossia aree ad elevata concentrazione di stabilimenti chimici. In queste zone il rischio di effetto domino inter-stabilimento è particolarmente alto, a causa della stretta vicinanza di installazioni che contengono elevati quantitativi di sostanze pericolose in condizioni operative pericolose. È proprio questa consapevolezza, purtroppo confermata dal verificarsi di diversi incidenti con effetto domino, che ha determinato negli ultimi anni un significativo aumento delle ricerche relative all'effetto domino e anche una sua maggiore considerazione nell'ambito della normativa. A riguardo di quest'ultimo aspetto occorre citare la Direttiva Europea 2012/18/UE (comunemente denominata Direttiva Seveso III) e il suo recepimento nella normativa italiana, il Decreto Legislativo del 26 giugno 2015, "Attuazione della direttiva 2012/18/UE relativa al controllo del pericolo di incidenti rilevanti connessi con sostanze pericolose, entrato in vigore il 29 luglio 2015: questo decreto infatti dedica ampio spazio all'effetto domino e introduce nuovi adempimenti per gli stabilimenti a Rischio di Incidente Rilevante presenti sul territorio nazionale. In particolare, l'Allegato E del D. Lgs. 105/2015 propone una metodologia per individuare i Gruppi domino definitivi, ovvero i gruppi di stabilimenti a Rischio di Incidente Rilevante tra i quali è possibile il verificarsi di incidenti con effetto domino inter-stabilimento. Nel presente lavoro di tesi, svolto presso ARPAE (Agenzia Regionale per la Prevenzione, l'Ambiente e l'Energia) dell'Emilia Romagna, è stata effettuata, secondo la metodologia proposta dall'Allegato E del D. Lgs. 105/2015, la valutazione dell'effetto domino inter-stabilimento per gli stabilimenti a Rischio di Incidente Rilevante presenti in Emilia Romagna, al fine di individuare i Gruppi domino definitivi e di valutare l'aggravio delle conseguenze fisiche degli eventi incidentali primari origine di effetto domino.
Resumo:
In questa tesi si affronta lo studio di piastre isotrope e laminate mediante metodo GDQ e si confrontano i risultati con quelli ottenuti, per le stesse tipologie di piastre, mediante metodo FEM. Lo scopo del lavoro e quello di certificare la maggior efficienza del software di calcolo DiQuMASPAB, basato su teorie in forma forte, rispetto ai tradizionali software di calcolo agli elementi finiti attualmente in commercio. Il confronto ha come obiettivo quello di evidenziare i punti deboli dal punto di vista dell'approssimazione delle soluzioni e del costo computazonale.
Resumo:
Questo elaborato ha lo scopo di esporre quelli che sono i vantaggi derivanti dall' utilizzo degli acciai inossidabili, specificando il tipo di componente e le ragioni della scelta, nei sistemi per la produzione di energia: dalle turbine, agli impianti nucleari, fino agli impianti che sfruttano le energie alternative (solare, eolica, geotermica, biogas). Inizialmente viene fornito un quadro generale sui differenti tipi di acciai inox (martensitici, ferritici, austenitici e duplex, con le relative proprietà, sottolineandone vantaggi e svantaggi), descrivendone anche i sistemi di designazione, con particolare attenzione alla norma AISI (American Iron and Steel Institute). Una volta messe in risalto queste caratteristiche, vengono esaminati e descritti diversi sistemi di produzione di energia in cui gli acciai inox trovano applicazione: si parte dalle turbine (idraulica, a vapore e a gas), spiegando i benefici nell'utilizzo di particolari categorie di acciai inox nella realizzazione di alcuni dei componenti per questi impianti. Vengono quindi esaminati gli impianti nucleari, partendo da quelli che utilizzano come moderatore e fluido refrigerante acqua naturale, ("PWR", Pressurized Water Reactor) e ("BWR", Boiling Water Reactor), fino a quelli che utilizzano invece acqua pesante ("CANDU", Canadian Deuterium Uranium Reactor), nonchè i reattori veloci ("FBR", Fast Breeding Reactor). Infine, vengono esaminate le applicazioni degli acciai inox, nei sistemi per la produzione di energia che, sfruttano fonti alternative (elencate in precedenza).
Resumo:
L'energia idroelettrica è una fonte di energia alternativa e rinnovabile che sfrutta il moto dell'acqua, generato grazie all'energia potenziale presente tra due bacini posti a quote diverse per convertire l'energia meccanica in elettrica attraverso un alternatore collegato a turbina. Gli impianti si classificano in: impianti ad acqua fluente, a deflusso regolato, ad accumulo tramite pompaggio. Le turbine idrauliche sono quei dispositivi meccanici in grado di convertire l'energia cinetica in energia meccanica. Fra tutte studieremo la Pelton, la Francis e la Kaplan e i loro criteri di scelta. I grandi impianti hanno un notevole impatto ambientale, ecco perché la nuova tecnologia si basa sul mini idroelettrico; quest'ultimo dal punto di vista economico è competitivo rispetto alle altre fonti rinnovabili ed ai combustibili fossili.
Resumo:
La tesi tratta le tecniche Vehicle-to-Grid (V2G) per l'interfacciamento deli sistemi di ricarica dei veicoli elettrici alla rete. Si analizzano le problematiche che una connessione non controllata può causare e come si può risolvere questo problema. Segue un'analisi dei servizi ausiliari che il sistema V2G è in grado di fornire alla rete di distribuzione e la presentazione di una strategia di regolazione della tensione e della frequenza (SFVR). Infine viene mostrata l'applicazione del sistema V2G che si può ottenere integrando la struttura di ricarica di un veicolo elettrico all'impianto elettrico domestico.
Resumo:
I neutroni possono essere classificati in base all'energia e per anni lo studio sui neutroni si è focalizzato verso le basse energie, ottenendo informazioni fondamentali sulle reazioni nucleari. Lo studio per i neutroni ad alta energia (E >20 MeV) ha ultimamente suscitato un vivo interesse, poiché i neutroni hanno un ruolo fondamentale in una vasta gamma di applicazioni: in campo medico, industriale e di radioprotezione. Tuttavia le informazioni sperimentali (sezioni d'urto) in nostro possesso, in funzione dell'energia dei neutroni, sono limitate, considerando che richiedono la produzione di fasci con un ampio spettro energetico e delle tecniche di rivelazione conforme ad essi. La rivelazione dei neutroni avviene spesso attraverso il processo di scintillazione che consiste nell'eccitazione e diseccitazione delle molecole che costituiscono il rivelatore. Successivamente, attraverso i fotomoltiplicatori, la luce prodotta viene raccolta e convertita in impulsi energetici che vengono registrati ed analizzati. Lo scopo di questa tesi è quello di testare quale sia la migliore configurazione sperimentale di un rivelatore costituito da scintillatori e fotomoltiplicatori per quanto riguarda la raccolta di luce, utilizzando una simulazione Monte Carlo per riprodurre le proprietà ottiche di un rivelatore per misure di flusso di un rivelatore ad alta energia.
Resumo:
In questa tesi si è approfondito dal punto di vista impiantistico ed energetico il primo progetto pilota “e-SAFE”, relativo ad un condominio di edilizia popolare sito a Catania. Il progetto europeo “e-SAFE” mira alla riqualificazione “globale” del patrimonio edilizio UE, con obiettivi quali la decarbonizzazione, tramite raggiungimento di edifici nZEB, e la sicurezza sismica, includendo finalità sociali. È stata svolta la progettazione degli impianti tecnici relativi ai servizi di climatizzazione (riscaldamento e raffrescamento) e produzione acqua calda sanitaria (ACS), tramite adozione di sistema a pompa di calore abbinato ad impianto fotovoltaico provvisto di batterie di accumulo, al fine di massimizzare l’utilizzo di fonti energetiche rinnovabili. Una soluzione innovativa è stata prevista per il sistema ACS tramite bollitori decentralizzati che permettono l’eliminazione della rete di ricircolo e dotano il servizio centralizzato di una certa “individualità”, con adozione di logiche di controllo che consentono di sfruttare al massimo l’energia da fotovoltaico. Sono state quindi svolte analisi energetiche, relative a tre casi impiantistici (senza PV, con PV e con batterie d’accumulo), con modellazione del sistema edificio-impianto adottando una procedura di calcolo orario, per poi confrontare i consumi elettrici, le emissioni e i principali indicatori energetici al fine di dimostrare la bontà delle scelte progettuali effettuate. Si è dimostrato come l’impiego dell’impianto fotovoltaico, abbinato ad un corretto dimensionamento delle batterie di accumulo, consente di ottimizzare la contemporaneità di produzione e consumo di energia. Nonché permette di minimizzare il prelievo di energia elettrica dalla rete nazionale, consumando e stoccando in loco l’elettricità autoprodotta da fonti energetiche totalmente rinnovabili.
Resumo:
La Macchina di Boltzmann Ristretta (RBM) è una rete neurale a due strati utilizzata principalmente nell'apprendimento non supervisionato. La sua capacità nel rappresentare complesse relazioni insite nei dati attraverso distribuzioni di tipo Boltzmann Gibbs la rende un oggetto particolarmente interessante per un approfondimento teoretico in ambito fisico matematico. In questa tesi vengono presentati due ambiti di applicazione della meccanica statistica all'apprendimento automatico. 1) La similarità della RBM a unità binarie con il modello di Ising permette di sfruttare un'espansione alle alte temperature per approssimare l'energia libera, termine presente nel gradiente della likelihoood e difficile da trattare numericamente. I risultati ottenuti con questa tecnica sul dataset MNIST sono paragonabili a quelli ottenuti dalla Contrastive Divergence, che utilizza invece metodi di Monte Carlo. 2) L'equivalenza statistica della variante ibrida di RBM con il modello di Hopfield permette di studiare la taglia del training set necessaria per l'apprendimento attraverso l'analisi del problema inverso, in cui i ruoli di spin e pattern sono invertiti. Viene quindi presentato un metodo basato sulla teoria di Gauge che permette di derivare il diagramma di fase del modello di Hopfield duale sulla linea di Nishimori in funzione della temperatura e del rapporto tra numero di campioni e dimensione del sistema.
Resumo:
Obiettivo di questo lavoro di tesi consiste nell’analizzare la domanda che il matematico e logico inglese Alan Turing propose di considerare: “Can machines think?”. Il quesito, esaminato attraverso la formulazione del gioco dell’imitazione e ormai ricordato come Test di Turing, è talmente interessante da essere divenuto uno degli argomenti più discussi nell’ambito delle scienze cognitive, della filosofia della mente e dell’informatica. In particolare è stata fondata una disciplina, chiamata intelligenza artificiale o IA, che intende studiare e comprendere se e come un sistema informatico possa essere capace di simulare una mente umana e un suo tipico comportamento. Questa tesi presenta una disamina sull’intelligenza artificiale e sul Test di Turing. Dell’IA si prenderanno in esame alcune definizioni formali della disciplina, le teorie di intelligenza artificiale debole e forte, e in particolare l’esperimento mentale della Stanza Cinese, il machine learning, il deep learning e le reti neurali, alcuni loro esempi di implementazione in diversi ambiti e infine alcune questioni etiche relative all’IA. Successivamente verranno esaminati la descrizione del gioco dell’imitazione, le più importanti critiche ed obiezioni al test di Turing, una variante del test, chiamata Test di Turing Totale, il premio Loebner, le previsioni fatte dal matematico e alcuni tentativi di superamento del test, tra cui l’implementazione dei chatterbot ELIZA, ALICE ed Eugene Goostman. Saranno infine proposte delle conclusioni in merito al lavoro svolto.
Resumo:
L'elaborato tratta lo studio dell’evoluzione delle perturbazioni di densità non lineari, confrontando modelli con costante cosmologica (wΛ = −1) e modelli alternativi in cui l’energia oscura sia caratterizzata da un’equazione di stato con w diverso da −1, considerando sia il caso con energia oscura costante, sia quello in cui ha fluttuazioni. La costante cosmologica presenta infatti due problemi teorici attualmente senza soluzione: il problema del suo valore e il problema della coincidenza. Per analizzare l’evoluzione delle perturbazioni di materia ed energia oscura, sia nel caso delle sovradensità che nel caso delle sottodensità primordiali, si implementano numericamente le equazioni differenziali non lineari ricavate a partire dalla teoria del collasso sferico. Per parametrizzare il problema, si fa riferimento ai valori critici del contrasto di densità δc e δv che rappresentano, rispettivamente, la soglia lineare per il collasso gravitazionale e la soglia per l’individuazione di un vuoto cosmico. I valori di δc e δv sono importanti poich´e legati agli osservabili cosmici tramite la funzione di massa e la void size function. Le soglie critiche indicate sono infatticontenute nelle funzioni citate e quindi, cambiando δc e δv al variare del modello cosmologico assunto, è possibile influenzare direttamente il numero e il tipo di oggetti cosmici formati, stimati con la funzione di massa e la void size function. Lo scopo principale è quindi quello di capire quanto l’assunzione di un modello, piuttosto che di un altro, incida sui valori di δc e δv. In questa maniera è quindi possibile stimare, con l’utilizzo della funzione di massa e della void size function, quali sono gli effetti sulla formazione delle strutture cosmiche dovuti alle variazioni delle soglie critiche δc e δv in funzione del modello cosmologico scelto. I risultati sono messi a confronto con il modello cosmologico standard (ΛCDM) per cui si assume Ω0,m = 0.3, Ω0,Λ = 0.7 e wΛ = −1.
Resumo:
Prima di procedere con il progetto sono state fatte sezioni storiche dell’area, in epoche indicative, per comprendere quelle che sono le invarianti e le caratteristiche di tale tessuto. Da qui si è dedotto lo schema generatore dell’insediamento che parte dall’identificazione degli assi viari (pedonali e carrabili) già presenti nell’area, che fanno diretto riferimento allo schema cardo-decumanico generatore dell’impianto angioino della città. Con il tracciamento si individuano gli isolati base, che con variazioni formali e tipologiche hanno originato gli edifici di progetto. I corpi di fabbrica generatori della planimetria, dialogano e rimangono a stretto contatto con i pochi edifici agibili, per i quali sono previsti consolidamenti e ristrutturazioni, qualora necessari. Inevitabile è stato il confronto con l’orografia, prestando particolare attenzione a non annullare con l’inserimento degli edifici il dislivello presente, ma lasciarlo percepire chiaramente: l’attacco a terra di ogni edificio avviene gradualmente, passando dai due piani fuori terra a monte ai tre, quattro a valle. Ovviamente non tutti gli assi sono stati trattati allo stesso modo, ma conseguentemente alla loro funzione e carattere di utilizzo. Analizzando la struttura viaria dell’intera area, si presentano schematicamente due anelli di circonvallazione del centro urbano: uno più esterno, di più recente costruzione, rappresentato da via XX Settembre, e uno più vecchio, che rimane rasente al centro storico, costituito dal viale Duca Degli Abruzzi, che prosegue in viale Giovanni XXIII e termina nel viadotto Belvedere. Quest’ultimo asse rappresenta sicuramente un importante collegamento cittadino, sia per la vicinanza al centro, sia per le porzioni di città messe in comunicazione; nonostante ciò il viadotto ha subito, all’altezza di viale Nicolò Persichetti, uno smottamento dopo il 6 aprile, ed essendo un elemento di scarso valore architettonico e spaziale, la sua presenza è stata ripensata. Compiendo una deviazione su via XX Settembre al termine di viale Duca Degli Abruzzi, che va a sfruttare la già presente via Fonte Preturo, non si va a rivoluzionante l’odierno assetto, che confluisce comunque, qualche centinaio di metri dopo, in via XX Settembre è si eliminano le connotazioni negative che il viadotto avrebbe sul rinnovato ingresso al centro storico. La vivibilità tende a favorire così collegamento e all’eterogeneità degli spazi più che la separazione fisica e psicologica: il concetto di città fa riferimento alla vita in comune; per favorirla è importante incentivare i luoghi di aggregazione, gli spazi aperti. Dalle testimonianze degli aquilani la vita cittadina vedeva il centro storico come principale luogo d’incontro sociale. Esso era animato dal numeroso “popolo” di studenti, che lo manteneva attivo e vitale. Per questo nelle intenzioni progettuali si pone l’accento su una visione attiva di città con un carattere unitario come sostiene Ungers3. La funzione di collegamento, che crea una struttura di luoghi complementari, può essere costituita dal sistema viario e da quello di piazze (luoghi sociali per eccellenza). Via Fontesecco ha la sua terminazione nell’omonima piazza: questo spazio urbano è sfruttato, nella conformazione attuale, come luogo di passaggio, piuttosto che di sosta, per questo motivo deve essere ricalibrato e messo in relazione ad un sistema più ampio di quello della sola via. In questo sistema di piazze rientra anche la volontà di mettere in relazione le emergenze architettoniche esistenti nell’area e nelle immediate vicinanze, quali la chiesa e convento dell’Addolorata, Palazzo Antonelli e la chiesa di San Domenico (che si attestano tutte su spazi aperti), e la chiesa di San Quinziano su via Buccio di Ranallo. In quest’ottica l’area d’intervento è intesa come appartenente al centro storico, parte del sistema grazie alla struttura di piazze, e allo stesso tempo come zona filtro tra centro e periferia. La struttura di piazze rende l’area complementare alla trama di pieni e vuoti già presente nel tessuto urbano cittadino; la densità pensata nel progetto, vi si accosta con continuità, creando un collegamento con l’esistente; allontanandosi dal centro e avvicinandosi quindi alle più recenti espansioni, il tessuto muta, concedendo più spazio ai vuoti urbani e al verde. Via Fontesecco, il percorso che delimita il lato sud dell’area, oltre ad essere individuata tra due fronti costruiti, è inclusa tra due quinte naturali: il colle dell’Addolorata (con le emergenze già citate) e il colle Belvedere sul quale s’innesta ora il viadotto. Questi due fronti naturali hanno caratteri molto diversi tra loro: il colle dell’Addolorata originariamente occupato da orti, ha un carattere urbano, mentre il secondo si presenta come una porzione di verde incolto e inutilizzato che può essere sfruttato come cerniera di collegamento verticale. Lo stesso declivio naturale del colle d’Addolorata che degrada verso viale Duca Degli Abruzzi, viene trattato nel progetto come una fascia verde di collegamento con il nuovo insediamento universitario. L’idea alla base del progetto dell’edilizia residenziale consiste nel ricostruire insediamenti che appartengano parte della città esistente; si tratta quindi, di una riscoperta del centro urbano e una proposta di maggior densità. Il tessuto esistente è integrato per ottenere isolati ben definiti, in modo da formare un sistema ben inserito nel contesto. Le case popolari su via Fontesecco hanno subito con il sisma notevoli danni, e dovendo essere demolite, hanno fornito l’occasione per ripensare all’assetto del fronte, in modo da integrarlo maggiormente con il tessuto urbano retrostante e antistante. Attualmente la conformazione degli edifici non permette un’integrazione ideale tra i percorsi di risalita pedonale al colle dell’Addolorata e la viabilità. Le scale terminano spesso nella parte retrostante gli edifici, senza sfociare direttamente su via Fontesecco. Si è quindi preferito frammentare il fronte, che rispecchiasse anche l’assetto originario, prima cioè dell’intervento fascista, e che consentisse comunque una percezione prospettica e tipologica unitaria, e un accesso alla grande corte retrostante. Il nuovo carattere di via Fontesecco, risultante dalle sezioni stradali e dalle destinazioni d’uso dei piani terra degli edifici progettuali, è quello di un asse commerciale e di servizio per il quartiere. L’intenzione, cercando di rafforzare l’area di progetto come nuovo possibile ingresso al centro storico, è quella di estendere l’asse commerciale fino a piazza Fontesecco, in modo da rendere tale spazio di aggregazione vitale: “I luoghi sono come monadi, come piccoli microcosmi, mondi autonomi, con tutte le loro caratteristiche, pregi e difetti, inseriti in un macrocosmo urbano più grande, che partendo da questi piccoli mondi compone una metropoli e un paesaggio”.4[...] Arretrando verso l’altura dell’Addolorata è inserita la grande corte del nuovo isolato residenziale, anch’essa con servizi (lavanderie, spazi gioco, palestra) ma con un carattere diverso, legato più agli edifici che si attestano sulla corte, anche per l’assenza di un accesso carrabile diretto; si crea così una gerarchia degli spazi urbani: pubblico sulla via e semi-pubblico nella corte pedonale. La piazza che domina l’intervento (piazza dell’Addolorata) è chiusa da un edificio lineare che funge da “quinta”, il centro civico. Molto flessibile, presenta al suo interno spazi espositivi e un auditorium a diretta disposizione del quartiere. Sempre sulla piazza sono presenti una caffetteria, accessibile anche dal parco, che regge un sistema di scale permettendo di attraversare il dislivello con la “fascia” verde del colle, e la nuova ala dell’Hotel “Duca degli Abruzzi”, ridimensionata rispetto all’originale (in parte distrutto dal terremoto), che si va a collegare in maniera organica all’edificio principale. Il sistema degli edifici pubblici è completo con la ricostruzione del distrutto “Istituto della Dottrina Cristiana”, adiacente alla chiesa di San Quinziano, che va a creare con essa un cortile di cui usufruiscono gli alunni di questa scuola materna ed elementare. Analizzando l’intorno, gran parte dell’abitato è definito da edifici a corte che, all’interno del tessuto compatto storico riescono a sopperire la mancanza di spazi aperti con corti, più o meno private, anche per consentire ai singoli alloggi una giusta illuminazione e areazione. Nel progetto si passa da due edifici a corti semi-private, chiusi in se stessi, a un sistema più grande e complesso che crea un ampio “cortile” urbano, in cui gli edifici che vi si affacciano (case a schiera e edifici in linea) vanno a caratterizzare gli spazi aperti. Vi è in questa differenziazione l’intenzione di favorire l’interazione tra le persone che abitano il luogo, il proposito di realizzare elementi di aggregazione più privati di una piazza pubblica e più pubblici di una corte privata. Le variazioni tipologiche degli alloggi poi, (dalla casa a schiera e i duplex, al monolocale nell’edilizia sociale) comportano un’altrettanta auspicabile mescolanza di utenti, di classi sociali, età e perché no, etnie diverse che permettano una flessibilità nell’utilizzo degli spazi pubblici.