999 resultados para calcolo algebrico modellizzazione progetto ArAl


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente dissertazione illustra lo studio, svolto in ambito di Tesi di Laurea Specialistica, della difesa delle aree di pianura prospicienti il tratto medio inferiore del Fiume Po dalle cosiddette piene al limite della prevedibilità, ovvero quelle aventi intensità al di sopra della quale le procedure di stima statistica perdono di significato a causa della mancanza di eventi osservati confrontabili (Majone, Tomirotti, 2006). In questo contesto si è definito come evento di piena al limite della prevedibiltà un evento con tempo di ritorno pari a cinquecento anni. Lo studio ha necessariamente preso in considerazione e riprodotto attraverso una schematizzazione concettuale le esondazioni all'esterno delle arginature maestre che si verificherebbero in conseguenza ad un evento estremo, quale quello preso in esame, nei comparti idraulici prospicienti l'asta fluviale. Detti comparti sono costituiti dalle zone di pianura latistanti l’asta fluviale, classificate dall'Autorità di Bacino come Fascia C e suddivise in base alla presenza degli affluenti principali del fiume Po e delle principali infrastrutture viarie e ferroviarie situate in tale fascia. Il presente studio persegue l’obiettivo di analizzare alcune politiche di intervento per la mitigazione del rischio alluvionale alternative al sovralzo e ringrosso arginale e ricade all'interno delle linee strategiche individuate dall' AdB-Po per la mitigazione del rischio residuale, ossia quello che permane anche in presenza di opere di difesa progettate e verificate con riferimento ad un ben preciso tempo di ritorno (nel caso in esame Trit = 200 anni). Questa linea di intervento si traduce praticamente individuando sul territorio aree meno "sensibili", in virtù del minor valore o dell'inferiore vulnerabilità dei beni in esse presenti, e dunque adatte ad accogliere i volumi di piena esondabili in occasione di quegli eventi di piena incompatibili con i presidi idraulici preesistenti, le sopra richiamate piene al limite della prevedibilità. L'esondazione controllata dei volumi di piena in tali aree avrebbe infatti il fine di tutelare le aree di maggior pregio, interessate da centri abitati, infrastrutture e beni di vario tipo; tale controllo è da considerarsi auspicabile in quanto sedici milioni di persone abitano la zona del bacino del Po e qui sono concentrati il 55% del patrimonio zootecnico italiano, il 35% della produzione agricola e il 37% delle industrie le quali però sostengono il 46% dei posti di lavoro (fonte AdB-Po). Per questi motivi il Po e il suo bacino sono da considerare come zone nevralgiche per l’intera economia italiana e una delle aree europee con la più alta concentrazione di popolazione, industrie e attività commerciali. Dal punto di vista economico, l’area è strategica per il Paese garantendo un PIL che copre il 40% di quello nazionale, grazie alla presenza di grandi industrie e di una quota rilevante di piccole e medie imprese, nonché d’attività agricole e zootecniche diffuse. Il punto di partenza è stato il modello numerico quasi-bidimensionale precedentemente sviluppato dal DISTART nel 2008 con il software HEC-RAS, la cui schematizzazione geometrica copriva unicamente l'alveo del Fiume (Fasce A e B secondo la denominazione adottata dall'AdB-Po) e le cui condizioni iniziali e al contorno rispecchiavano un evento con tempo di ritorno pari a duecento anni. Si è proceduto dunque alla definizione di nuove sollecitazioni di progetto, volte a riprodurre nelle sezioni strumentate del Po gli idrogrammi sintetici con tempo di ritorno di cinquecento anni messi a punto dal D.I.I.A.R. (Dipartimento di Ingegneria Idraulica, Ambientale e del Rilevamento, DIIAR, 2001) del Politecnico di Milano. Il modello stesso è stato poi aggiornato e considerevolmente modificato. Il risultato consiste in un nuovo modello matematico idraulico di tipo quasi-bidimensionale che, attraverso una schematizzazione concettuale, riproduce il comportamento idraulico in occasione di eventi di piena al limite della prevedibilità per tutte e tre le Fasce Fluviali considerate nel Piano stralcio per l’Assetto Idrogeologico redatto dall'AdB-Po (Fasce A, B C, v. PAI, 1999). I diversi comparti idraulici in cui può essere suddivisa la Fascia C sono stati inseriti nel modello e geometricamente descritti in termini di curve di riempimento, ricavate a partire dal DTM del Bacino del Po attraverso opportune elaborazioni in ambiente GIS (Geographic Information System). Una volta predisposto il modello sono state condotte due tipologie di simulazioni. Una prima serie è stata volta alla definizione in maniera iterativa dei punti critici degli argini maestri, ovvero quelli nei quali si prevedeva avvenisse la tracimazione, e alla modellazione in essi della formazione di brecce, decisive per una corretta riproduzione del fenomeno di esondazione all'esterno delle arginature maestre nell'attuale configurazione; bisogna infatti considerare che le arginature maestre vengono comunemente progettate con il solo fine di contenere le portate di piena in alveo, e che dunque un’eventuale tracimazione induce fenomeni erosivi che solitamente portano all'apertura di una breccia nel manufatto (rotta arginale). Un'ulteriore simulazione ha permesso di valutare l'evoluzione del fenomeno sotto l'ipotesi di un intervento di consolidamento degli argini maestri nei tratti critici (interessati dai sormonti) e quindi di rotta arginale impedita. Il confronto dei risultati ottenuti ha evidenziato i benefici associati ad una laminazione controllata dell'evento di piena all'esterno delle arginature. In questo contesto il termine "controllata" è esclusivamente associato al fenomeno di rotta arginale, come detto inibita per lo scenario ipotetico. I benefici di tale controllo si hanno in termini di volumi, di portate esondate e di tiranti attesi nei comparti idraulici. Lo strumento modellistico predisposto nell’ambito della Tesi di Laurea Specialistica si presta ad essere utilizzato a supporto dell’identificazione su ampia scala delle zone della Fascia C meno “sensibili”, in quanto meno vulnerabili ai fenomeni di allagamento. Questo ulteriore passaggio costituisce il punto di partenza per delineare le strategie ottimali di laminazione controllata in Fascia C degli eventi al limite della prevedibilità al fine della riduzione del rischio idraulico nelle aree di pianura prospicienti il Po, aspetto che verrà affrontato in sviluppi successivi del presente lavoro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con il presente progetto di tesi si intende proporre la riqualificazione di una porzione della cittadina di Toscanella di Dozza, attraverso la realizzazione di diversi edifici quali: una nuova chiesa parrocchiale corredata di aule e sale per le attività di catechesi ed altri spazi comuni, un centro culturale polivalente, che comprende anche diverse ricettività, un centro sportivo di modeste dimensioni con campo da calcetto all’aperto. Tutto il nuovo complesso si inserisce all’interno di un’area verde che costeggia il rio Sabbioso, e che collega attraverso un sistema di spazi aperti, i vari edifici oggetto di progettazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il primo capitolo espone nozioni generali sulle varietà e sulle curve algebriche, sulle mappe fra di esse e su alcune proprietà geometriche importanti per caratterizzare le curve ellittiche. Il secondo capitolo propone un'introduzione allo studio geometrico e algebrico di tali curve. Il terzo e il quarto capitolo affrontano lo studio dei punti a coordinate razionali, per curve definite prima su campi locali e poi su campi globali: l'insieme di tali punti è un gruppo. Il risultato fondamentale, contenuto nel teorema di Mordell-Weil, è che tale gruppo è finitamente generato. Tutto il quarto capitolo propone i risultati necessari per la dimostrazione di tale affermazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract. This thesis presents a discussion on a few specific topics regarding the low velocity impact behaviour of laminated composites. These topics were chosen because of their significance as well as the relatively limited attention received so far by the scientific community. The first issue considered is the comparison between the effects induced by a low velocity impact and by a quasi-static indentation experimental test. An analysis of both test conditions is presented, based on the results of experiments carried out on carbon fibre laminates and on numerical computations by a finite element model. It is shown that both quasi-static and dynamic tests led to qualitatively similar failure patterns; three characteristic contact force thresholds, corresponding to the main steps of damage progression, were identified and found to be equal for impact and indentation. On the other hand, an equal energy absorption resulted in a larger delaminated area in quasi-static than in dynamic tests, while the maximum displacement of the impactor (or indentor) was higher in the case of impact, suggesting a probably more severe fibre damage than in indentation. Secondly, the effect of different specimen dimensions and boundary conditions on its impact response was examined. Experimental testing showed that the relationships of delaminated area with two significant impact parameters, the absorbed energy and the maximum contact force, did not depend on the in-plane dimensions and on the support condition of the coupons. The possibility of predicting, by means of a simplified numerical computation, the occurrence of delaminations during a specific impact event is also discussed. A study about the compressive behaviour of impact damaged laminates is also presented. Unlike most of the contributions available about this subject, the results of compression after impact tests on thin laminates are described in which the global specimen buckling was not prevented. Two different quasi-isotropic stacking sequences, as well as two specimen geometries, were considered. It is shown that in the case of rectangular coupons the lay-up can significantly affect the damage induced by impact. Different buckling shapes were observed in laminates with different stacking sequences, in agreement with the results of numerical analysis. In addition, the experiments showed that impact damage can alter the buckling mode of the laminates in certain situations, whereas it did not affect the compressive strength in every case, depending on the buckling shape. Some considerations about the significance of the test method employed are also proposed. Finally, a comprehensive study is presented regarding the influence of pre-existing in-plane loads on the impact response of laminates. Impact events in several conditions, including both tensile and compressive preloads, both uniaxial and biaxial, were analysed by means of numerical finite element simulations; the case of laminates impacted in postbuckling conditions was also considered. The study focused on how the effect of preload varies with the span-to-thickness ratio of the specimen, which was found to be a key parameter. It is shown that a tensile preload has the strongest effect on the peak stresses at low span-to-thickness ratios, leading to a reduction of the minimum impact energy required to initiate damage, whereas this effect tends to disappear as the span-to-thickness ratio increases. On the other hand, a compression preload exhibits the most detrimental effects at medium span-to-thickness ratios, at which the laminate compressive strength and the critical instability load are close to each other, while the influence of preload can be negligible for thin plates or even beneficial for very thick plates. The possibility to obtain a better explanation of the experimental results described in the literature, in view of the present findings, is highlighted. Throughout the thesis the capabilities and limitations of the finite element model, which was implemented in an in-house program, are discussed. The program did not include any damage model of the material. It is shown that, although this kind of analysis can yield accurate results as long as damage has little effect on the overall mechanical properties of a laminate, it can be helpful in explaining some phenomena and also in distinguishing between what can be modelled without taking into account the material degradation and what requires an appropriate simulation of damage. Sommario. Questa tesi presenta una discussione su alcune tematiche specifiche riguardanti il comportamento dei compositi laminati soggetti ad impatto a bassa velocità. Tali tematiche sono state scelte per la loro importanza, oltre che per l’attenzione relativamente limitata ricevuta finora dalla comunità scientifica. La prima delle problematiche considerate è il confronto fra gli effetti prodotti da una prova sperimentale di impatto a bassa velocità e da una prova di indentazione quasi statica. Viene presentata un’analisi di entrambe le condizioni di prova, basata sui risultati di esperimenti condotti su laminati in fibra di carbonio e su calcoli numerici svolti con un modello ad elementi finiti. È mostrato che sia le prove quasi statiche sia quelle dinamiche portano a un danneggiamento con caratteristiche qualitativamente simili; tre valori di soglia caratteristici della forza di contatto, corrispondenti alle fasi principali di progressione del danno, sono stati individuati e stimati uguali per impatto e indentazione. D’altro canto lo stesso assorbimento di energia ha portato ad un’area delaminata maggiore nelle prove statiche rispetto a quelle dinamiche, mentre il massimo spostamento dell’impattatore (o indentatore) è risultato maggiore nel caso dell’impatto, indicando la probabilità di un danneggiamento delle fibre più severo rispetto al caso dell’indentazione. In secondo luogo è stato esaminato l’effetto di diverse dimensioni del provino e diverse condizioni al contorno sulla sua risposta all’impatto. Le prove sperimentali hanno mostrato che le relazioni fra l’area delaminata e due parametri di impatto significativi, l’energia assorbita e la massima forza di contatto, non dipendono dalle dimensioni nel piano dei provini e dalle loro condizioni di supporto. Viene anche discussa la possibilità di prevedere, per mezzo di un calcolo numerico semplificato, il verificarsi di delaminazioni durante un determinato caso di impatto. È presentato anche uno studio sul comportamento a compressione di laminati danneggiati da impatto. Diversamente della maggior parte della letteratura disponibile su questo argomento, vengono qui descritti i risultati di prove di compressione dopo impatto su laminati sottili durante le quali l’instabilità elastica globale dei provini non è stata impedita. Sono state considerate due differenti sequenze di laminazione quasi isotrope, oltre a due geometrie per i provini. Viene mostrato come nel caso di provini rettangolari la sequenza di laminazione possa influenzare sensibilmente il danno prodotto dall’impatto. Due diversi tipi di deformate in condizioni di instabilità sono stati osservati per laminati con diversa laminazione, in accordo con i risultati dell’analisi numerica. Gli esperimenti hanno mostrato inoltre che in certe situazioni il danno da impatto può alterare la deformata che il laminato assume in seguito ad instabilità; d’altra parte tale danno non ha sempre influenzato la resistenza a compressione, a seconda della deformata. Vengono proposte anche alcune considerazioni sulla significatività del metodo di prova utilizzato. Infine viene presentato uno studio esaustivo riguardo all’influenza di carichi membranali preesistenti sulla risposta all’impatto dei laminati. Sono stati analizzati con simulazioni numeriche ad elementi finiti casi di impatto in diverse condizioni di precarico, sia di trazione sia di compressione, sia monoassiali sia biassiali; è stato preso in considerazione anche il caso di laminati impattati in condizioni di postbuckling. Lo studio si è concentrato in particolare sulla dipendenza degli effetti del precarico dal rapporto larghezza-spessore del provino, che si è rivelato un parametro fondamentale. Viene illustrato che un precarico di trazione ha l’effetto più marcato sulle massime tensioni per bassi rapporti larghezza-spessore, portando ad una riduzione della minima energia di impatto necessaria per innescare il danneggiamento, mentre questo effetto tende a scomparire all’aumentare di tale rapporto. Il precarico di compressione evidenzia invece gli effetti più deleteri a rapporti larghezza-spessore intermedi, ai quali la resistenza a compressione del laminato e il suo carico critico di instabilità sono paragonabili, mentre l’influenza del precarico può essere trascurabile per piastre sottili o addirittura benefica per piastre molto spesse. Viene evidenziata la possibilità di trovare una spiegazione più soddisfacente dei risultati sperimentali riportati in letteratura, alla luce del presente contributo. Nel corso della tesi vengono anche discussi le potenzialità ed i limiti del modello ad elementi finiti utilizzato, che è stato implementato in un programma scritto in proprio. Il programma non comprende alcuna modellazione del danneggiamento del materiale. Viene però spiegato come, nonostante questo tipo di analisi possa portare a risultati accurati soltanto finché il danno ha scarsi effetti sulle proprietà meccaniche d’insieme del laminato, esso possa essere utile per spiegare alcuni fenomeni, oltre che per distinguere fra ciò che si può riprodurre senza tenere conto del degrado del materiale e ciò che invece richiede una simulazione adeguata del danneggiamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fenomeni di trasporto ed elettrostatici in membrane da Nanofiltrazione La capacità di predire le prestazioni delle membrane da nanofiltrazione è molto importante per il progetto e la gestione di processi di separazione a membrana. Tali prestazioni sono strettamente legate ai fenomeni di trasporto che regolano il moto dei soluti all’interno della matrice della membrana. Risulta, quindi, di rilevante importanza la conoscenza e lo studio di questi fenomeni; l’obiettivo finale è quello di mettere a punto modelli di trasporto appropriati che meglio descrivano il flusso dei soluti all’interno della membrana. A fianco dei modelli di trasporto ricopre, quindi, una importanza non secondaria la caratterizzazione dei parametri aggiustabili propri della membrana sulla quale si opera. La procedura di caratterizzazione di membrane deve chiarire le modalità di svolgimento delle prove sperimentali e le finalità che esse dovrebbero conseguire. Tuttavia, nonostante i miglioramenti concernenti la modellazione del trasporto di ioni in membrana ottenuti dalla ricerca negli ultimi anni, si è ancora lontani dall’avere a disposizione un modello univoco in grado di descrivere i fenomeni coinvolti in maniera chiara. Oltretutto, la palese incapacità del modello di non riuscire a prevedere gli andamenti sperimentali di reiezione nella gran parte dei casi relativi a miscele multicomponenti e le difficoltà legate alla convergenza numerica degli algoritmi risolutivi hanno fortemente limitato gli sviluppi del processo anche e soprattutto in termini applicativi. Non da ultimo, si avverte la necessità di poter prevedere ed interpretare l’andamento della carica di membrana al variare delle condizioni operative attraverso lo sviluppo di un modello matematico in grado di descrivere correttamente il meccanismo di formazione della carica. Nel caso di soluzioni elettrolitiche, infatti, è stato riconosciuto che la formazione della carica superficiale è tra i fattori che maggiormente caratterizzano le proprietà di separazione delle membrane. Essa gioca un ruolo importante nei processi di trasporto ed influenza la sua selettività nella separazione di molecole caricate; infatti la carica di membrana interagisce elettrostaticamente con gli ioni ed influenza l’efficienza di separazione degli stessi attraverso la partizione degli elettroliti dalla soluzione esterna all’interno dei pori del materiale. In sostanza, la carica delle membrane da NF è indotta dalle caratteristiche acide delle soluzioni elettrolitiche poste in contatto con la membrana stessa, nonché dal tipo e dalla concentrazione delle specie ioniche. Nello svolgimento di questo lavoro sono stati analizzati i principali fenomeni di trasporto ed elettrostatici coinvolti nel processo di nanofiltrazione, in particolare si è focalizzata l’attenzione sugli aspetti relativi alla loro modellazione matematica. La prima parte della tesi è dedicata con la presentazione del problema generale del trasporto di soluti all’interno di membrane da nanofiltrazione con riferimento alle equazioni alla base del modello DSP&DE, che rappresenta una razionalizzazione dei modelli esistenti sviluppati a partire dal modello DSPM, nel quale sono stati integrarti i fenomeni di esclusione dielettrica, per quanto riguarda la separazione di elettroliti nella filtrazione di soluzioni acquose in processi di Nanofiltrazione. Il modello DSP&DE, una volta definita la tipologia di elettroliti presenti nella soluzione alimentata e la loro concentrazione, viene completamente definito da tre parametri aggiustabili, strettamente riconducibili alle proprietà della singola membrana: il raggio medio dei pori all’interno della matrice, lo spessore effettivo e la densità di carica di membrana; in più può essere considerato un ulteriore parametro aggiustabile del modello il valore che la costante dielettrica del solvente assume quando confinato in pori di ridotte dimensioni. L’impostazione generale del modello DSP&DE, prevede la presentazione dei fenomeni di trasporto all’interno della membrana, descritti attraverso l’equazione di Nerst-Planck, e lo studio della ripartizione a ridosso dell’interfaccia membrana/soluzione esterna, che tiene in conto di diversi contributi: l’impedimento sterico, la non idealità della soluzione, l’effetto Donnan e l’esclusione dielettrica. Il capitolo si chiude con la presentazione di una procedura consigliata per la determinazione dei parametri aggiustabili del modello di trasporto. Il lavoro prosegue con una serie di applicazioni del modello a dati sperimentali ottenuti dalla caratterizzazione di membrane organiche CSM NE70 nel caso di soluzioni contenenti elettroliti. In particolare il modello viene applicato quale strumento atto ad ottenere informazioni utili per lo studio dei fenomeni coinvolti nel meccanismo di formazione della carica; dall’elaborazione dei dati sperimentali di reiezione in funzione del flusso è possibile ottenere dei valori di carica di membrana, assunta quale parametro aggiustabile del modello. che permettono di analizzare con affidabilità gli andamenti qualitativi ottenuti per la carica volumetrica di membrana al variare della concentrazione di sale nella corrente in alimentazione, del tipo di elettrolita studiato e del pH della soluzione. La seconda parte della tesi relativa allo studio ed alla modellazione del meccanismo di formazione della carica. Il punto di partenza di questo studio è rappresentato dai valori di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione con il modello di trasporto, e tali valori verranno considerati quali valori “sperimentali” di riferimento con i quali confrontare i risultati ottenuti. Nella sezione di riferimento è contenuta la presentazione del modello teorico “adsorption-amphoteric” sviluppato al fine di descrivere ed interpretare i diversi comportamenti sperimentali ottenuti per la carica di membrana al variare delle condizioni operative. Nel modello la membrana è schematizzata come un insieme di siti attivi di due specie: il gruppo di siti idrofobici e quello de siti idrofilici, in grado di supportare le cariche derivanti da differenti meccanismi chimici e fisici. I principali fenomeni presi in considerazione nel determinare la carica volumetrica di membrana sono: i) la dissociazione acido/base dei siti idrofilici; ii) il site-binding dei contro-ioni sui siti idrofilici dissociati; iii) l’adsorbimento competitivo degli ioni in soluzione sui gruppi funzionali idrofobici. La struttura del modello è del tutto generale ed è in grado di mettere in evidenza quali sono i fenomeni rilevanti che intervengono nel determinare la carica di membrana; per questo motivo il modello permette di indagare il contributo di ciascun meccanismo considerato, in funzione delle condizioni operative. L’applicazione ai valori di carica disponibili per membrane Desal 5-DK nel caso di soluzioni contenenti singoli elettroliti, in particolare NaCl e CaCl2 permette di mettere in evidenza due aspetti fondamentali del modello: in primis la sua capacità di descrivere andamenti molto diversi tra loro per la carica di membrana facendo riferimento agli stessi tre semplici meccanismi, dall’altra parte permette di studiare l’effetto di ciascun meccanismo sull’andamento della carica totale di membrana e il suo peso relativo. Infine vengono verificate le previsioni ottenute con il modello dal suddetto studio attraverso il confronto con dati sperimentali di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione disponibili per il caso di membrane CSM NE70. Tale confronto ha messo in evidenza le buone capacità previsionali del modello soprattutto nel caso di elettroliti non simmetrici quali CaCl2 e Na2SO4. In particolare nel caso un cui lo ione divalente rappresenta il contro-ione rispetto alla carica propria di membrana, la carica di membrana è caratterizzata da un andamento unimodale (contraddistinto da un estremante) con la concentrazione di sale in alimentazione. Il lavoro viene concluso con l’estensione del modello ADS-AMF al caso di soluzioni multicomponenti: è presentata una regola di mescolamento che permette di ottenere la carica per le soluzioni elettrolitiche multicomponenti a partire dai valori disponibili per i singoli ioni componenti la miscela.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di dottorato sono stati analizzati differenti strumenti impiegati per le stime di pericolosità sismica. Facendo riferimento alla Mappa di Pericolosità Sismica Italiana MPS04 (Gruppo di Lavoro MPS, 2004), redatta dall’Istituto Nazionale di Geofisica e Vulcanologia (INGV) e adottata come mappa di riferimento per il territorio nazionale ai sensi dell’Ordinanza PCM 3519 del 28 aprile 2006, All. 1b, è stato approfondito il calcolo dei tassi di sismicità attraverso la relazione di Gutenberg e Richter (1944). In particolare, si è proceduto attraverso un confronto tra i valori ottenuti dagli autori della Mappa (Gruppo di Lavoro MPS, 2004) e i valori ottenuti imponendo un valore costante e unico al parametro b della relazione (Gutenberg e Richter, 1944). Il secondo tema affrontato è stato l’analisi della presenza di eventi di origine non tettonica in un catalogo. Nel 2000 Wiemer e Baer hanno proposto un algoritmo che identifica e rimuove gli eventi di origine antropica. Alla metodologia di Wiemer e Baer (2000) sono state apportate delle modifiche al fine di limitare la rimozione di eventi naturali. Tale analisi è stata condotta sul Catalogo Strumentale della Sismicità Italiana (CSI 1.1; Castello et al., 2006) e sui cataloghi Europei disponibili online: Spagna e Portogallo, Francia, Nord Europa, Repubblica Ceca, Romania, Grecia. L’ultimo argomento trattato ha riguardato la presunta correlazione tra i meccanismi di fagliazione e il parametro b della relazione di Gutenberg e Richter (1944). Nel lavoro di Schorlemmer et al. (2005), tale correlazione è dimostrata calcolando il b-value su una griglia a scala mondiale raggruppando i terremoti in funzione dell’angolo di rake: i valori maggiori del parametro sono misurati per i terremoti che si originano in un regime distensivo, seguono quelli in un regime trascorrente mentre i valori minori si registrano nelle aree a regime compressivo. Il principale ostacolo per una applicazione del metodo al territorio italiano è rappresentato dal numero ridotto di terremoti per i quali è possibile avere indicazioni circa il meccanismo focale della sorgente: la correlazione è stata così valutata calcolando il b-value all’interno delle zone sismogenetiche definite per la realizzazione di MPS04 (Gruppo di Lavoro MPS, 2004), alle quali è stato nuovamente assegnato un meccanismo di fagliazione prevalente attraverso la somma del tensore momento. Sono inoltre allegati lavori altri lavori prodotti nell’ambito della pericolosità sismica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gestione di sorgenti multiple di disturbo in AMP: il caso delle Isole Tremiti Il seguente lavoro di tesi valuta l’efficacia di protezione di un’area marina protetta (AMP) sui popolamenti di differenti habitat compresi in zone a diverso regime di tutela. Questo tema è molto sentito sia dal punto di vista scientifico, poiché le AMP rappresentano uno esperimento di esclusione delle attività antropiche ad ampia scala, sia dal punto di vista socio-economico per l’interesse che sono in grado di generare nelle comunità locali. Tuttavia, ad oggi, gli studi che abbiano dimostrato l’efficacia di protezione delle AMP sono pochi e sono per lo più diretti sulle specie di maggior interesse commerciale. In generale, c’è un’evidente mancanza di protezione in molte AMP del Mediterraneo e di aree extra-mediterranee che può essere attribuita a diversi fattori, tra cui le caratteristiche fisiche dei siti dove sono state istituite, le modalità di gestione e le numerose attività illegali che vengono svolte all’interno dei loro confini. Inoltre, nelle aree protette, spesso, anche le attività lecite non sono adeguatamente regolamentate, limitando ulteriormente il perseguimento degli obiettivi istitutivi e la tutela della biodiversità marina. Testare le ipotesi sull’efficacia di protezione delle AMP è, quindi, di fondamentale importanza per capire quali tipi di impatti sono maggiormente presenti e per poter fornire agli Enti gestori informazioni utili per migliorare l’amministrazione delle AMP. In particolare, l’AMP dell’arcipelago delle Isole Tremiti, istituita da oltre venti anni, è un’area protetta che presenta molte criticità, come dimostrato in precedenti campagne di monitoraggio condotte dal Consorzio Nazionale Interuniversitario per le Scienze del Mare (CoNISMa). In questo contesto, la presente tesi è stata sviluppata con lo scopo di quantificare l’effetto della regolamentazione di diverse attività umane sui popolamenti del subtidale, della frangia e delle praterie di Posidonia oceanica nell’AMP delle Isole Tremiti a diverse scale spaziali per un periodo di circa dieci anni. Questo lavoro, inoltre, rientra in un progetto finanziato dal Ministero dell’Ambiente e della Tutela del Territorio e del Mare al CoNISMa volto ad impostare un’attività di monitoraggio sperimentale e di mitigazione in questa AMP. I campionamenti sono stati condotti tra Giugno e Settembre 2010 e i dati raccolti sono stati integrati a quelli ottenuti nei precedenti monitoraggi svolti nelle Isole Tremiti. I risultati hanno mostrato che: 1) ci sono differenze significative consistenti nel tempo tra il subtidale dell’isola di Pianosa e quello delle altre isole dell’arcipelago; 2) i popolamenti nella frangia di Pianosa, di San Domino e di Caprara non presentano differenze significative; 3) c’è un’elevata variabilità a scala di sito nelle praterie di Posidonia oceanica, ma non si osserva una differenza tra località protette ed impattate. La differenza riscontrata nel subtidale tra zona a protezione integrale (Pianosa) e le altre isole dell’arcipelago (controlli) non è però attribuibile ad un effetto della protezione. Infatti, il subtidale di Pianosa è caratterizzato da un barren molto esteso con elevate percentuali di spugne rosse incrostanti, di alghe rodoficee incrostanti e di ricci di mare, mentre nelle isole di San Domino e di Caprara c’è una maggiore diversità data da alghe corallinacee articolate, alghe erette, idrozoi, ascidiacei e numerose spugne. Diversi fattori possono aver agito nel determinare questo risultato, ma molto probabilmente la cospicua attività di pesca illegale che viene praticata a Pianosa combinata all’attività di grazing degli erbivori, non controllati dai predatori, limita il recupero dei popolamenti. Al contrario, l’assenza di differenze nei popolamenti della frangia delle tre isole campionate fa ipotizzare la mancanza di impatti diretti (principalmente il calpestio) su questo habitat. Per quanto riguarda la Posidonia oceanica i risultati suggeriscono che si stia verificando un ancoraggio indiscriminato su tutte le praterie delle Isole Tremiti e che molto probabilmente si tratta di praterie in forte regressione, come indicano anche le ricerche condotte dall’Università di Bari. C’è bisogno, tuttavia, di ulteriori studi che aiutino a comprendere meglio la variabilità nella riposta dei popolamenti in relazione alle diverse condizioni ambientali e al diverso sforzo di gestione. In conclusione, dai risultati ottenuti, emerge chiaramente come anche nell’AMP delle Isole Tremiti, ci sia una scarsa efficacia di protezione, così come è stato rilevato per la maggior parte delle AMP italiane. Per risolvere le costanti conflittualità che perdurano nelle Isole Tremiti e che non permettono il raggiungimento degli obiettivi istitutivi dell’AMP, è assolutamente necessario, oltre che far rispettare la regolamentazione vigente incrementando il numero di guardacoste sull’isola durante tutto l’anno, procedere, eventualmente, ad una rizonizzazione dell’AMP e sviluppare un piano di gestione in accordo con la popolazione locale adeguatamente sensibilizzata. Solo in questo modo sarà possibile ridurre le numerose attività illegali all’interno dell’AMP, e, allo stesso tempo, rendere gli stessi cittadini una componente imprescindibile della conservazione di questo arcipelago.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Traceability is often perceived by food industry executives as an additional cost of doing business, one to be avoided if possible. However, a traceability system can in fact comply the regulatory requirements, increase food safety and recall performance, improving marketing performances and, as well as, improving supply chain management. Thus, traceability affects business performances of firms in terms of costs and benefits determined by traceability practices. Costs and benefits affect factors such as, firms’ characteristics, level of traceability and ,lastly, costs and benefits perceived prior to traceability implementation. This thesis was undertaken to understand how these factors are linked to affect the outcome of costs and benefits. Analysis of the results of a plant level survey of the Italian ichthyic processing industry revealed that processors generally adopt various level of traceability while government support appears to increase the level of traceability and the expectations and actual costs and benefits. None of the firms’ characteristics, with the exception of government support, influences costs and level of traceability. Only size of firms and level of QMS certifications are linked with benefits while precision of traceability increases benefits without affecting costs. Finally, traceability practices appear due to the request from “external“ stakeholders such as government, authority and customers rather than “internal” factors (e.g. improving the firm management) while the traceability system does not provide any added value from the market in terms of price premium or market share increase.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Indagine sulla varietà sintattica presente all'interno dei formalismi di specifica della semantica operazionale strutturale (SOS) di linguaggi di programmazione e calcolo di processi. Rassegna di tool di implementazione con attenzione al grado di copertura linguistica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In 1995, the European Union (EU) Member States and 12 Mediterranean countries launched in Barcelona a liberalization process that aims at establishing a free trade area (to be realized by 2010) and at promoting a sustainable and balanced economic development by the adoption of a new generation of Agreements: the Euro-Mediterranean Agreements (EMA). For the Mediterranean partner countries, the main concern is a better access for their fruit and vegetable exports to the European market. These products represent the main exports of these countries, and the EU is their first trading partner. On the other side, for the EU the main issue is not only the promotion of its products, but also the protection of its fruit and vegetables producers. Moreover, the trade with third countries is the key element of the Common Market Organization of the sector. Fruit and vegetables represent a very sensitive sector since their high seasonality, high perishability, and especially since the production of the Mediterranean countries is often similar to the European Mediterranean’s countries one. In fact, the agreements define preferences at the entrance of the EU market providing limited concessions for each partner, for specific products, limited quantities and calendars. This research tries to analyze the bilateral trade volume for fresh fruit and vegetables in the European and Italian markets in order to assess the effects of Mediterranean liberalization on this sector. Free trade of agricultural products represents a very actual topic in international trade and the Mediterranean countries, recognised as big producers of fruit and vegetables, as big exporters of their crops and actually significantly present on the European market, could be high competitors with the inward production because the outlet could be the same. The goal of this study is to provide some considerations about the competitiveness of mediterranean fruit and vegetables productions after Barcelona Process, in a first step for the European market and then also for the Italian one. The aim is to discuss the influence of the euro-mediterranean agreements on the fruit and vegetables trade between 10 foreign Mediterranean countries (Algeria, Egypt, Israel, Jordan, Libya, Lebanon, Morocco, Tunisia, Syria, and Turkey) and 15 EU countries in the period 1995-2007, by means of a gravity model, which is a widespread methodology in international trade analysis. The basic idea of gravity models is that bilateral trade from one country to another (as the dependent variable) can be explained by a set of factors: - factors that capture the potential of a country to export goods and services; - factors that capture the propensity of a country to imports goods and services; - any other forces that either attract or inhibit bilateral trade. This analysis compares only imports’ flows by Europe and by Italy (in volumes) from Mediterranean countries, since the exports’ flows toward those foreign countries are not significant, especially for Italy. The market of fruit and vegetables appears as a high heterogeneous group so it is very difficult to show a synthesis of the analysis performed and the related results. In fact, this sector includes the so called “poor products” (such as potatoes and legumes), and the “rich product”, such as nuts or exotic fruit, and there are a lot of different goods that arouse a dissimilar consumer demand which directly influence the import requirements. Fruit and vegetables sector includes products with extremely different biological cycles, leading to a very unlike seasonality. Moreover, the Mediterranean area appears as a highly heterogeneous bloc, including countries which differ from the others for economic size, production potential, capability to export and for the relationships with the EU. The econometric estimation includes 68 analyses, 34 of which considering the European import and 34 the Italian import and the products are examined in their aggregated form and in their disaggregated level. The analysis obtains a very high R2 coefficient, which means that the methodology is able to assess the import effects on fruit and vegetables associated to the Association Agreements, preferential tariffs, regional integration, and others information involved in the equation. The empirical analysis suggests that fruits and vegetables trade flows are well explained by some parameters: size of the involved countries (especially GDP and population of the Mediterranean countries); distances; prices of imported products; local production for the aggregated products; preferential expressed tariffs like duty free; sub-regional agreements that enforce the export capability. The euro-mediterranean agreements are significant in some of the performed analysis, confirming the slow and gradual evolution of euro- Mediterranean liberalization. The euro-mediterranean liberalization provides opportunities from one side, and imposes a new important challenge from the other side. For the EU the chance is that fruit and vegetables imported from the mediterranean area represent a support for local supply and a possibility to increase the range of products existing on the market. The challenge regards the competition of foreign products with the local ones since the types of productions are similar and markets coincide, especially in the Italian issue. We need to apply a strategy based not on a trade antagonism, but on the realization of a common plane market with the Mediterranean countries. This goal could be achieved enhancing the industrial cooperation in addition to commercial relationships, and increasing investments’ flows in the Mediterranean countries aiming at transforming those countries from potential competitors to trade partners and creating new commercial policies to export towards extra European countries.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si studia in modo formale una specifica proprietà della Computazione Quantistica. In particolare, il modello di calcolo che si utilizzerà (circuito quantistico) può essere rappresentato da una sequenza di operazioni. Una sequenza è detta mista (circuito misto) se si presentano operazioni classiche e quantistiche in modo alternato (sequenze del tipo Q-C-C-Q-Q-C). Una sequenza in Forma Normale, invece, ammette operazioni classiche solamente all'inizio o alla fine, mentre in mezzo possono esserci solamente operazioni quantistiche (sequenze del tipo C-C-Q-Q-Q-C). Una sequenza di operazioni esclusivamente quantistiche porta numerosi vantaggi, per questo la forma normale è molto importante. Essa infatti separa le operazioni classiche da quelle quantistiche, concentrandole tutte all'interno. Quello che si farà in questa tesi sarà fornire un modo operativo (mediante riscritture) per ottenere la forma normale di una qualsiasi sequenza di operazioni classiche o quantistiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Prima di procedere con il progetto sono state fatte sezioni storiche dell’area, in epoche indicative, per comprendere quelle che sono le invarianti e le caratteristiche di tale tessuto. Da qui si è dedotto lo schema generatore dell’insediamento che parte dall’identificazione degli assi viari (pedonali e carrabili) già presenti nell’area, che fanno diretto riferimento allo schema cardo-decumanico generatore dell’impianto angioino della città. Con il tracciamento si individuano gli isolati base, che con variazioni formali e tipologiche hanno originato gli edifici di progetto. I corpi di fabbrica generatori della planimetria, dialogano e rimangono a stretto contatto con i pochi edifici agibili, per i quali sono previsti consolidamenti e ristrutturazioni, qualora necessari. Inevitabile è stato il confronto con l’orografia, prestando particolare attenzione a non annullare con l’inserimento degli edifici il dislivello presente, ma lasciarlo percepire chiaramente: l’attacco a terra di ogni edificio avviene gradualmente, passando dai due piani fuori terra a monte ai tre, quattro a valle. Ovviamente non tutti gli assi sono stati trattati allo stesso modo, ma conseguentemente alla loro funzione e carattere di utilizzo. Analizzando la struttura viaria dell’intera area, si presentano schematicamente due anelli di circonvallazione del centro urbano: uno più esterno, di più recente costruzione, rappresentato da via XX Settembre, e uno più vecchio, che rimane rasente al centro storico, costituito dal viale Duca Degli Abruzzi, che prosegue in viale Giovanni XXIII e termina nel viadotto Belvedere. Quest’ultimo asse rappresenta sicuramente un importante collegamento cittadino, sia per la vicinanza al centro, sia per le porzioni di città messe in comunicazione; nonostante ciò il viadotto ha subito, all’altezza di viale Nicolò Persichetti, uno smottamento dopo il 6 aprile, ed essendo un elemento di scarso valore architettonico e spaziale, la sua presenza è stata ripensata. Compiendo una deviazione su via XX Settembre al termine di viale Duca Degli Abruzzi, che va a sfruttare la già presente via Fonte Preturo, non si va a rivoluzionante l’odierno assetto, che confluisce comunque, qualche centinaio di metri dopo, in via XX Settembre è si eliminano le connotazioni negative che il viadotto avrebbe sul rinnovato ingresso al centro storico. La vivibilità tende a favorire così collegamento e all’eterogeneità degli spazi più che la separazione fisica e psicologica: il concetto di città fa riferimento alla vita in comune; per favorirla è importante incentivare i luoghi di aggregazione, gli spazi aperti. Dalle testimonianze degli aquilani la vita cittadina vedeva il centro storico come principale luogo d’incontro sociale. Esso era animato dal numeroso “popolo” di studenti, che lo manteneva attivo e vitale. Per questo nelle intenzioni progettuali si pone l’accento su una visione attiva di città con un carattere unitario come sostiene Ungers3. La funzione di collegamento, che crea una struttura di luoghi complementari, può essere costituita dal sistema viario e da quello di piazze (luoghi sociali per eccellenza). Via Fontesecco ha la sua terminazione nell’omonima piazza: questo spazio urbano è sfruttato, nella conformazione attuale, come luogo di passaggio, piuttosto che di sosta, per questo motivo deve essere ricalibrato e messo in relazione ad un sistema più ampio di quello della sola via. In questo sistema di piazze rientra anche la volontà di mettere in relazione le emergenze architettoniche esistenti nell’area e nelle immediate vicinanze, quali la chiesa e convento dell’Addolorata, Palazzo Antonelli e la chiesa di San Domenico (che si attestano tutte su spazi aperti), e la chiesa di San Quinziano su via Buccio di Ranallo. In quest’ottica l’area d’intervento è intesa come appartenente al centro storico, parte del sistema grazie alla struttura di piazze, e allo stesso tempo come zona filtro tra centro e periferia. La struttura di piazze rende l’area complementare alla trama di pieni e vuoti già presente nel tessuto urbano cittadino; la densità pensata nel progetto, vi si accosta con continuità, creando un collegamento con l’esistente; allontanandosi dal centro e avvicinandosi quindi alle più recenti espansioni, il tessuto muta, concedendo più spazio ai vuoti urbani e al verde. Via Fontesecco, il percorso che delimita il lato sud dell’area, oltre ad essere individuata tra due fronti costruiti, è inclusa tra due quinte naturali: il colle dell’Addolorata (con le emergenze già citate) e il colle Belvedere sul quale s’innesta ora il viadotto. Questi due fronti naturali hanno caratteri molto diversi tra loro: il colle dell’Addolorata originariamente occupato da orti, ha un carattere urbano, mentre il secondo si presenta come una porzione di verde incolto e inutilizzato che può essere sfruttato come cerniera di collegamento verticale. Lo stesso declivio naturale del colle d’Addolorata che degrada verso viale Duca Degli Abruzzi, viene trattato nel progetto come una fascia verde di collegamento con il nuovo insediamento universitario. L’idea alla base del progetto dell’edilizia residenziale consiste nel ricostruire insediamenti che appartengano parte della città esistente; si tratta quindi, di una riscoperta del centro urbano e una proposta di maggior densità. Il tessuto esistente è integrato per ottenere isolati ben definiti, in modo da formare un sistema ben inserito nel contesto. Le case popolari su via Fontesecco hanno subito con il sisma notevoli danni, e dovendo essere demolite, hanno fornito l’occasione per ripensare all’assetto del fronte, in modo da integrarlo maggiormente con il tessuto urbano retrostante e antistante. Attualmente la conformazione degli edifici non permette un’integrazione ideale tra i percorsi di risalita pedonale al colle dell’Addolorata e la viabilità. Le scale terminano spesso nella parte retrostante gli edifici, senza sfociare direttamente su via Fontesecco. Si è quindi preferito frammentare il fronte, che rispecchiasse anche l’assetto originario, prima cioè dell’intervento fascista, e che consentisse comunque una percezione prospettica e tipologica unitaria, e un accesso alla grande corte retrostante. Il nuovo carattere di via Fontesecco, risultante dalle sezioni stradali e dalle destinazioni d’uso dei piani terra degli edifici progettuali, è quello di un asse commerciale e di servizio per il quartiere. L’intenzione, cercando di rafforzare l’area di progetto come nuovo possibile ingresso al centro storico, è quella di estendere l’asse commerciale fino a piazza Fontesecco, in modo da rendere tale spazio di aggregazione vitale: “I luoghi sono come monadi, come piccoli microcosmi, mondi autonomi, con tutte le loro caratteristiche, pregi e difetti, inseriti in un macrocosmo urbano più grande, che partendo da questi piccoli mondi compone una metropoli e un paesaggio”.4[...] Arretrando verso l’altura dell’Addolorata è inserita la grande corte del nuovo isolato residenziale, anch’essa con servizi (lavanderie, spazi gioco, palestra) ma con un carattere diverso, legato più agli edifici che si attestano sulla corte, anche per l’assenza di un accesso carrabile diretto; si crea così una gerarchia degli spazi urbani: pubblico sulla via e semi-pubblico nella corte pedonale. La piazza che domina l’intervento (piazza dell’Addolorata) è chiusa da un edificio lineare che funge da “quinta”, il centro civico. Molto flessibile, presenta al suo interno spazi espositivi e un auditorium a diretta disposizione del quartiere. Sempre sulla piazza sono presenti una caffetteria, accessibile anche dal parco, che regge un sistema di scale permettendo di attraversare il dislivello con la “fascia” verde del colle, e la nuova ala dell’Hotel “Duca degli Abruzzi”, ridimensionata rispetto all’originale (in parte distrutto dal terremoto), che si va a collegare in maniera organica all’edificio principale. Il sistema degli edifici pubblici è completo con la ricostruzione del distrutto “Istituto della Dottrina Cristiana”, adiacente alla chiesa di San Quinziano, che va a creare con essa un cortile di cui usufruiscono gli alunni di questa scuola materna ed elementare. Analizzando l’intorno, gran parte dell’abitato è definito da edifici a corte che, all’interno del tessuto compatto storico riescono a sopperire la mancanza di spazi aperti con corti, più o meno private, anche per consentire ai singoli alloggi una giusta illuminazione e areazione. Nel progetto si passa da due edifici a corti semi-private, chiusi in se stessi, a un sistema più grande e complesso che crea un ampio “cortile” urbano, in cui gli edifici che vi si affacciano (case a schiera e edifici in linea) vanno a caratterizzare gli spazi aperti. Vi è in questa differenziazione l’intenzione di favorire l’interazione tra le persone che abitano il luogo, il proposito di realizzare elementi di aggregazione più privati di una piazza pubblica e più pubblici di una corte privata. Le variazioni tipologiche degli alloggi poi, (dalla casa a schiera e i duplex, al monolocale nell’edilizia sociale) comportano un’altrettanta auspicabile mescolanza di utenti, di classi sociali, età e perché no, etnie diverse che permettano una flessibilità nell’utilizzo degli spazi pubblici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le linee direttrici che hanno caratterizzato la composizione si possono riassumere in tre punti principali: • ricerca di una connessione tra la zona del parco del fiume Savio e il centro storico; • espansione del costruito attraverso lo sfruttamento dell’argine fluviale; • strutturazione di un nuovo polo attrattivo per la città di Cesena. Il primo problema che si è posto, ipotizzando la demolizione del muro di cinta, è stato quello di come far interagire due aree completamente separate tra loro; l'idea è stata quella di rendere la zona interamente pedonale e di porre in comunicazione l'area fluviale con la nuova area progettuale; in questa maniera il verde del Savio si estende oltre i propri argini e si spinge all'interno dell'area di progetto, costituendone le zone verdi, mentre il nuovo costruito giunge oltre l'argine del fiume, guadagnandosi spazio attraverso la terrazza del mercato e le braccia del museo, che si estendono verso il corso d'acqua accentuando questa nuova relazione tra le due zone. L'idea progettuale è stata quindi quella di ottenere una continua interazione tra le due entità evitando una netta divisione tra il fiume Savio e la restante cittadina ed ottenendo una zona in grado di collegare la parte più centrale di Cesena, con il proprio fiume. Il mercato ha come ambizioso obiettivo, quello di fungere da elemento di collegamento tra il centro storico di Cesena e la zona fluviale; esso viene così definito da due fronti principali, uno rivolto verso il centro storico, l'altro verso il fiume Savio. L'edificio può essere immaginato come composto da due volumi distinti, che si sviluppano attorno a due corti di diverse dimensioni; i due corpi non sono completamente separati tra loro, ma vengono collegati da un elemento centrale, che ospita parte dell'impianto distributivo dell'edificio. L'impianto generale del mercato presenta un forte richiamo al mondo classico: esso è interamente circondato da un porticato, si eleva al di sopra di un basamento e si ispira fortemente alla tipologia della domus romana. Elemento fondamentale dell'area così ipotizzata, è inoltre la passeggiata pedonale, la quale collega il Ponte Vecchio con quello di più recente costruzione; il percorso, è rialzato rispetto alla quota della nuova piazza, è visibile dalla sponda opposta del Savio e costituisce il nuovo fronte lungo il fiume; esso si identifica come l'elemento unificatore di tutti gli interventi, viene costeggiato dal nuovo impianto sulla sinistra e dal'area di pertinenza fluviale sulla destra, offrendo suggestive visuali di entrambe le zone, costituendo così una vera e propria promenade architecturale sul lungofiume. Il progetto, si pone come obiettivo, quello di restituire un carattere architettonico all'area, partendo dalla realizzazione della piazza centrale, fulcro di tutto l'impianto ipotizzato. Essa viene a costituirsi tra l'edificio più alto del C.A.P.S., l'auditorium, il mercato e la loggia. Quest’ultima si trova di fronte al mercato e si affaccia sulla piazza centrale, definendone un limite e rappresentando nello stesso tempo un forte richiamo storico agli antichi mercati italiani.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto di intervento per la ricostruzione dell’Aquila è il frutto del lavoro sul discusso e attuale tema del terremoto del 6 aprile 2009 in Abruzzo, che ha profondamente colpito la città ed il suo territorio. Quest’ultimo è stato l’elemento fondativo da cui partire in fase progettuale, affinchè la memoria possa diventare nuovamente fonte di identità e dove il paesaggio rappresenti un dialogo costante tra passato e presente, dove gli spazi aperti assumano il ruolo di rinnovata struttura generativa. Lo scenario che si prospetta dopo il sisma, mostra come sia forte la necessità di ritornare alla propria città, l’Aquila, attraverso la fruizione di spazi di relazione pubblici quali le piazze, le chiese e gli spazi privati dell’abitazione. L’intervento all’interno del quartiere di San Silvestro in cui si è sviluppato il progetto, rappresenta una realtà molteplice e complessa in cui più elementi interagiscono tra loro. Per questo, il progetto si pone come obiettivo quello di “intrecciare relazioni”, ossia creare legami tra sistemi ed elementi ora disgiunti che, se tra loro connessi, diventano l’occasione per far rivivere la città. La volontà di creare relazioni si è definita attraverso diverse azioni; una di queste è la scelta di intervenire a scala urbana, definendo un nuovo sistema viario che possa svincolare il centro dal percorso congestionato di via Duca degli Abruzzi. L’intervento previsto su macroscala non solo ha l’obbiettivo di tutelare il centro storico dal traffico carrabile, ma privilegia la circolazione pedonale all’interno del quartiere, cercando di restituire una percezione dello spazio a misura d’uomo. Altro aspetto caratterizzante il progetto è la volontà di “ricostruire scene urbane” caratteristiche del centro storico aquilano, consolidando gli spazi di aggregazione già esistenti come piazza san Silvestro e inserendo nuovi spazi di relazione in corrispondenza di porta Branconia, un punto nevralgico del progetto perché congiunge la cinta muraria con il centro storico e con la città all’esterno delle mura. Il progetto prevede che il sistema del verde retrostante sia accessibile attraverso percorsi nel verde che, dal centro, confluiscono sull’asse commerciale di via della Croce Rossa. La definizione della parte più storica del quartiere di San Silvestro avviene attraverso un sistema di nuovi elementi che dialogano con le preesistenze storiche: un complesso di alloggi che si sviluppa nel lotto adiacente la chiesa, secondo la tipologia a schiera, ha un duplice affaccio, su via Duca degli Abruzzi da un lato e su via Sant’Agnese dall’altro; un nuovo museo per la città che si colloca su piazza San Silvestro confrontandosi direttamente con la Chiesa e col palazzo Branconi-Farinosi, rispettandone il ruolo e l’importanza. Nell’area di espansione, limitrofa al già esistente quartiere di San Silvestro, si è cercati di privilegiare la relazione della città col suolo: a tal proposito l’andamento delle curve di livello presenti, dà origine a strade per l’accesso agli alloggi sociali che confluiscono nel verde adiacente le mura della città. L’elemento unificatore di questo nuovo impianto risulta essere dunque il parco pubblico che costeggia le mura, congiungendo piazza S. Silvestro con l’estremità ovest dell’area e con i percorsi pedonali che caratterizzano tutta l’area di progetto trovando la massima espressione in prossimità proprio delle mura storiche. Attraverso queste prime intenzioni progettuali si è cercato di sviluppare un sistema organico e coerente di elementi capaci di dialogare con il contesto circostante e di instaurare nuove relazioni con la città. Se consideriamo le diverse componenti che formano il sistema possiamo evidenziare la presenza di elementi serventi, quali gli spazi aventi funzione pubblica, e di elementi serviti, come le residenze, aventi funzione privata. In particolare, il sistema residenziale, assume uno sviluppo uniforme ed omogeneo all’interno dell’area di intervento articolandosi con differenti connotazioni a seconda del diverso contesto circostante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’analisi condotta sulle condizioni geo-morfologiche dell’intera regione abruzzese e in particolare della città de L’Aquila ha evidenziato l’importanza del contesto paesaggistico territoriale che non può che essere assunto come riferimento progettuale per rinnovare il rapporto tra uomo e natura, soprattutto in una realtà come quella aquilana dove sono il paesaggio naturale e la struttura morfologica che permangono come fattori costanti nel tempo, nonostante le trasformazioni attuate dalla società o dagli eventi sismici che da sempre caratterizzano la storia della città e che rappresentano quindi due elementi in grado di restituire l’identità stessa della popolazione. Questa caratteristica rappresenta il pretesto per un approfondimento sul paesaggio dal punto di vista percettivo: è infatti l’uomo che nel corso dei secoli modifica fortemente il proprio territorio e la percezione che ha di esso. L’obiettivo di tale studio è quello di riuscire a cogliere, in fase progettuale, l’essenza del luogo, il carattere peculiare delle diverse suggestioni che i cittadini aquilani potranno riaffermare come parte della propria identità. Considerate tali premesse, il progetto propone il disegno di un nuovo parco urbano collocato entro le mura lungo l’intera lunghezza dell’area oggetto di studio; l’obiettivo è quello di collegare i poli verdi preesistenti del Parco del Castello e del Parco del Sole e contemporaneamente di ridefinire il lacerato rapporto tra centro storico e prima periferia eleggendo il verde ad elemento capace di una relazione attiva con il contesto urbano, con la possibilità di contribuire alla coesione sociale, alla sensibilizzazione ai temi ambientali e al miglioramento dell’offerta dei luoghi di ritrovo. Il nuovo parco ospiterà architetture legate alla musica e al teatro, temi da sempre di notevole importanza per la città, come testimoniano le numerose strutture che prima dell’evento tellurico arricchivano il patrimonio culturale della città. Per evitare che funzioni di così notevole importanza per la città corrano il rischio di essere progressivamente relegate verso la periferia ed i centri minori, il progetto propone di integrare all’interno del nuovo parco una serie di attività quali laboratori teatrali e foresterie per attori, centro ricreativo, biblioteca e sala espositiva, conservatorio, attività commerciali e residenze, disposti secondo una successione lineare da nord a sud. Tale intervento sarà integrato dalla realizzazione di un complesso di residenze,costituito da tre corpi lineari disposti secondo il naturale declivio del terreno, lungo l’asse est-ovest, in corrispondenza del prolungamento dei tracciati storici secondari. Si viene a creare, quindi una sorta di struttura a pettine, nella quale le aree verdi adibite ad orti e gli spazi costruiti si compenetrano definendo un vero e proprio filtro tra città storica e quella suburbana. La disposizione dei diversi edifici e la presenza in ognuno di essi di uno spazio pubblico esterno, sono pensati in modo tale da creare una successione di spazi collettivi, suggerita in risposta all’assenza di attrezzature pubbliche all’interno del quartiere preesistente. Il progetto prevede, infatti di dare maggiore spazio alle attività pubbliche, investendo sulla realizzazione di luoghi e di spazi per l’incontro e la collettività, che rappresentano un necessità primaria per ogni città ed in particolare per L’Aquila post sisma. Contestualmente al parco che costituisce una sorta di asse verde sviluppato in direzione nord-sud, il progetto si estende anche in direzione perpendicolare, lungo la direttrice est-ovest, attraverso la riqualificazione dell’asse storico di via San Bernardino, cercando di restituire ad esso ed alla monumentale scalinata omonima la valenza storica progressivamente perduta nel corso degli anni. Pertanto, il progetto prevede la ridefinizione di entrambi i lati della scalinata oggi abbandonati al verde incolto ed in particolare la realizzazione, lungo il lato orientale, di un nuovo polo culturale, costituito da una biblioteca ed una sala espositiva. Il nuovo edificio, assume un ruolo cardine all’interno del progetto, rappresentando uno dei punti di collegamento tra città storica e verde pubblico. Il complesso nasce dall’incontro di cinque elementi lineari disposti in modo tale da assecondare il naturale dislivello del terreno e da consentire la realizzazione di due ampi spazi pubblici: uno verde, pensato come prolungamento del parco, sul quale si affaccia l’ampia sala di lettura della biblioteca ed uno pavimentato, ai piedi della scalinata, delimitato da un portico a doppia altezza. Il nuovo edificio, consente inoltre di creare un belvedere dal parco verso la città storica, evocando una suggestione cara agli abitanti della città.