439 resultados para Categorie, limiti, colimiti.


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi di dottorato di ricerca ha come oggetto la nozione di fatto urbano elaborata e presentata da Aldo Rossi nel libro L’architettura della città edito nel 1966. Ne L’architettura della città sono molteplici le definizioni e le forme con cui è enunciata la nozione di fatto urbano. Nel corso della tesi si è indagato come la costruzione nel tempo di questo concetto è stata preceduta da diversi studi giovanili intrapresi dal 1953, poi riorganizzati e sintetizzati a partire dal 1963 in un quaderno manoscritto dal titolo “Manuale di urbanistica”, in diversi appunti e in due quaderni manoscritti. Il lavoro di ricerca ha ricostruito la formulazione della nozione di fatto urbano attraverso gli scritti di Rossi. In questa direzione la rilevazione della partecipazione di Rossi a dibattiti, seminari, riviste, corsi universitari o ricerche accademiche è apparsa di fondamentale importanza, per comprendere la complessità di un lavoro non riconducibile a dei concetti disciplinari, ma alla formazione di una teoria trasmissibile. Il tentativo di comprendere e spiegare la nozione di fatto urbano ha condotto ad esaminare l’accezione con cui Rossi compone L’architettura della città, che egli stesso assimila ad un trattato. L’analisi ha identificato come la composizione del libro non è direttamente riferibile ad un uso classico della stesura editoriale del trattato, la quale ha tra i riferimenti più noti nel passato la promozione di una pratica corretta come nel caso vitruviano o un’impalcatura instauratrice di una nuova categoria come nel caso dell’Alberti. La mancanza di un sistema globale e prescrittivo a differenza dei due libri fondativi e il rimando non immediato alla stesura di un trattato classico è evidente ne L’architettura della città. Tuttavia la possibilità di condurre la ricerca su una serie di documenti inediti ha permesso di rilevare come negli scritti a partire dal 1953, sia maturata una trattazione delle questioni centrali alla nozione di fatto urbano ricca di intuizioni, che aspirano ad un’autonomia, sintetizzate, seppure in modo non sistematico, nella stesura del celebre libro. Si è così cercato di mettere in luce la precisazione nel tempo della nozione di fatto urbano e della sua elaborazione nei molteplici scritti antecedenti la pubblicazione de L’architettura della città, precisando come Rossi, pur costruendo su basi teoriche la nozione di fatto urbano, ne indichi una visione progressiva, ossia un uso operativo sulla città. La ricerca si è proposta come obiettivo di comprendere le radici culturali della nozione di fatto urbano sia tramite un’esplorazione degli interessi di Rossi nel suo percorso formativo sia rispetto alla definizione della struttura materiale del fatto urbano che Rossi individua nelle permanenze e che alimenta nella sua definizione con differenti apporti derivanti da altre discipline. Compito di questa ricerca è stato rileggere criticamente il percorso formativo compiuto da Rossi, a partire dal 1953, sottolinearne gli ambiti innovativi e precisarne i limiti descrittivi che non vedranno mai la determinazione di una nozione esatta, ma piuttosto la strutturazione di una sintesi complessa e ricca di riferimenti ad altri studi. In sintesi la tesi si compone di tre parti: 1. la prima parte, dal titolo “La teoria dei fatti urbani ne L’architettura della città”, analizza il concetto di fatto urbano inserendolo all’interno del più generale contesto teorico contenuto nel libro L’architettura della città. Questo avviene tramite la scomposizione del libro, la concatenazione delle sue argomentazioni e la molteplicità delle fonti esplicitamente citate da Rossi. In questo ambito si precisa la struttura del libro attraverso la rilettura dei riferimenti serviti a Rossi per comporre il suo progetto teorico. Inoltre si ripercorre la sua vita attraverso le varie edizioni, le ristampe, le introduzioni e le illustrazioni. Infine si analizza il ruolo del concetto di fatto urbano nel libro rilevando come sia posto in un rapporto paritetico con il titolo del libro, conseguendone un’accezione di «fatto da osservare» assimilabile all’uso proposto dalla geografia urbana francese dei primi del Novecento. 2. la seconda parte, dal titolo “La formazione della nozione di fatto urbano 1953-66”, è dedicata alla presentazione dell’elaborazione teorica negli scritti di Rossi prima de L’architettura della città, ossia dal 1953 al 1966. Questa parte cerca di descrivere le radici culturali di Rossi, le sue collaborazioni e i suoi interessi ripercorrendo la progressiva definizione della concezione di città nel tempo. Si è analizzato il percorso maturato da Rossi e i documenti scritti fin dagli anni in cui era studente alla Facoltà di Architettura Politecnico di Milano. Emerge un quadro complesso in cui i primi saggi, gli articoli e gli appunti testimoniano una ricerca intellettuale tesa alla costruzione di un sapere sullo sfondo del realismo degli anni Cinquanta. Rossi matura infatti un impegno culturale che lo porta dopo la laurea ad affrontare discorsi più generali sulla città. In particolare la sua importante collaborazione con la rivista Casabella-continuità, con il suo direttore Ernesto Nathan Rogers e tutto il gruppo redazionale segnano il periodo successivo in cui compare l’interesse per la letteratura urbanistica, l’arte, la sociologia, la geografia, l’economia e la filosofia. Seguono poi dal 1963 gli anni di lavoro insieme al gruppo diretto da Carlo Aymonino all’Istituto Universitario di Architettura di Venezia, e in particolare le ricerche sulla tipologia edilizia e la morfologia urbana, che portano Rossi a compiere una sintesi analitica per la fondazione di una teoria della città. Dall’indagine si rileva infatti come gli scritti antecedenti L’architettura della città sviluppano lo studio dei fatti urbani fino ad andare a costituire il nucleo teorico di diversi capitoli del libro. Si racconta così la genesi del libro, la cui scrittura si è svolta nell’arco di due anni, e le aspirazioni che hanno portato quello che era stato concepito come un “manuale d’urbanistica” a divenire quello che Rossi definirà “l’abbozzo di un trattato” per la formulazione di una scienza urbana. 3. la terza parte, dal titolo “La struttura materiale dei fatti urbani: la teoria della permanenza”, indaga monograficamente lo studio della città come un fatto materiale, un manufatto, la cui costruzione è avvenuta nel tempo e del tempo mantiene le tracce. Sul tema della teoria della permanenza è stato importante impostare un confronto con il dibattito vivo negli anni della ricostruzione dopo la guerra intorno ai temi delle preesistenze ambientali nella ricostruzione negli ambienti storici. Sono emersi fin da subito importanti la relazione con Ernesto Nathan Rogers, le discussioni sulle pagine di Casabella-Continuità, la partecipazione ad alcuni dibatti e ricerche. Si è inoltre Rilevato l’uso di diversi termini mutuati dalle tesi filosofiche di alcune personalità come Antonio Banfi e Enzo Paci, poi elaborati dal nucleo redazionale di Casabella-Continuità, di cui faceva parte anche Rossi. Sono così emersi alcuni spostamenti di senso e la formulazione di un vocabolario di termini all’interno della complessa vicenda della cultura architettonica degli anni Cinquanta e Sessanta. 1. Si è poi affrontato questo tema analizzando le forme con cui Rossi presenta la definizione della teoria della permanenza e i contributi desunti da alcuni autori per la costruzione scientifica di una teoria dell’architettura, il cui fine è quello di essere trasmissibile e di offrire strumenti di indagine concreti. Questa ricerca ha permesso di ipotizzare come il lavoro dei geografi francesi della prima metà del XX secolo, e in particolare il contributo più rilevante di Marcel Poëte e di Pierre Lavedan, costituiscono le fonti principali e il campo d’indagine maggiormente esplorato da Rossi per definire la teoria della permanenza e i monumenti. Le permanenze non sono dunque presentate ne L’architettura della città come il “tutto”, ma emergono da un metodo che sceglie di isolare i fatti urbani permanenti, consentendo così di compiere un’ipotesi su “ciò che resta” dopo le trasformazioni continue che operano nella città. Le fonti su cui ho lavorato sono state quelle annunciate da Rossi ne L’architettura della città, e più precisamente i testi nelle edizioni da lui consultate. Anche questo lavoro ha permesso un confronto dei testi che ha fatto emergere ne L’architettura della città l’uso di termini mutuati da linguaggi appartenenti ad altre discipline e quale sia l’uso di concetti estrapolati nella loro interezza. Presupposti metodologici Della formulazione della nozione di fatto urbano si sono indagate l’originalità dell’espressione, le connessioni presunte o contenute negli studi di Rossi sulla città attraverso la raccolta di fonti dirette e indirette che sono andate a formare un notevole corpus di scritti. Le fonti dirette più rilevanti sono state trovare nelle collezioni speciali del Getty Research Institute di Los Angeles in cui sono conservati gli Aldo Rossi Papers, questo archivio comprende materiali inediti dal 1954 al 1988. La natura dei materiali si presenta sotto forma di manoscritti, dattiloscritti, quaderni, documenti ciclostilati, appunti sparsi e una notevole quantità di corrispondenza. Negli Aldo Rossi Papers si trovano anche 32 dei 47 Quaderni Azzurri, le bozze de L’architettura della città e dell’ Autobiografia Scientifica. Per quanto riguarda in particolare L’architettura della città negli Aldo Rossi Papers sono conservati: un quaderno con il titolo “Manuale d’urbanistica, giugno 1963”, chiara prima bozza del libro, degli “Appunti per libro urbanistica estate/inverno 1963”, un quaderno con la copertina rossa datato 20 settembre 1964-8 agosto 1965 e un quaderno con la copertina blu datato 30 agosto 1965-15 dicembre 1965. La possibilità di accedere a questo archivio ha permesso di incrementare la bibliografia relativa agli studi giovanili consentendo di rileggere il percorso culturale in cui Rossi si è formato. E’ così apparsa fondamentale la rivalutazione di alcune questioni relative al realismo socialista che hanno portato a formare un più preciso quadro dei primi scritti di Rossi sullo sfondo di un complesso scenario intellettuale. A questi testi si è affiancata la raccolta delle ricerche universitarie, degli articoli pubblicati su riviste specializzate e degli interventi a dibattiti e seminari. A proposito de L’architettura della città si è raccolta un’ampia letteratura critica riferita sia al testo in specifico che ad una sua collocazione nella storia dell’architettura, mettendo in discussione alcune osservazioni che pongono L’architettura della città come un libro risolutivo e definitivo. Per quanto riguarda il capitolo sulla teoria della permanenza l’analisi è stata svolta a partire dai testi che Rossi stesso indicava ne L’architettura della città rivelando i diversi apporti della letteratura urbanistica francese, e permettendo alla ricerca di precisare le relazioni con alcuni scritti centrali e al contempo colti da Rossi come opportunità per intraprendere l’elaborazione dell’idea di tipo. Per quest’ultima parte si può precisare come Rossi formuli la sua idea di tipo in un contesto culturale dove l’interesse per questo tema era fondamentale. Dunque le fonti che hanno assunto maggior rilievo in quest’ultima fase emergono da un ricco panorama in cui Rossi compie diverse ricerche sia con il gruppo redazionale di Casabella-continuità, sia all’interno della scuola veneziana negli anni Sessanta, ma anche negli studi per l’ILSES e per l’Istituto Nazionale d’Urbanistica. RESEARCH ON THE NOTION OF URBAN ARTIFACT IN THE ARCHITECTURE OF THE CITY BY ALDO ROSSI. Doctoral candidate: Letizia Biondi Tutor: Valter Balducci The present doctoral dissertation deals with the notion of urban artifact that was formulated and presented by Aldo Rossi in his book The Architecture of the City, published in 1966. In The Architecture of the City, the notion of urban artifact is enunciated through a wide range of definitions and forms. In this thesis, a research was done on how the construction of this concept over time was preceded by various studies started in 1953 during the author’s youth, then re-organized and synthesized since 1963 in a manuscript titled “Manual of urban planning” and in two more manuscripts later on. The work of research re-constructed the formulation of the notion of urban artifact through Rossi’s writings. In this sense, the examination of Rossi’s participation in debates, seminars, reviews, university courses or academic researches was of fundamental importance to understand the complexity of a work which is not to be attributed to disciplinary concepts, but to the formulation of a communicable theory. The effort to understand and to explain the notion of urban artifact led to an examination of the meaning used by Rossi to compose The Architecture of the City, which he defines as similar to a treatise. Through this analysis, it emerged that the composition of the book is not directly ascribable to the classical use of editorial writing of a treatise, whose most famous references in the past are the promotion of a correct practice as in the case of Vitruvio’s treatise, or the use of a structure that introduces a new category as in the Alberti case. Contrary to the two founding books, the lack of a global and prescriptive system and the not immediate reference to the writing of a classical treatise are evident in The Architecture of the City. However, the possibility of researching on some unpublished documents allowed to discover that in the writings starting from 1953 the analysis of the questions that are at the core of the notion of urban artifact is rich of intuitions, that aim to autonomy and that would be synthesized, even though not in a systematic way, in his famous book. The attempt was that of highlighting the specification over time of the notion of urban artifact and its elaboration in the various writings preceding the publication of The Architecture of the City. It was also specified that, despite building on theoretical grounds, Rossi indicates a progressive version of the notion of urban artifact, that is a performing use in the city. The present research aims to understand the cultural roots of the notion of urban artifact in two main directions: analyzing, firstly, Rossi’s interests along his formation path and, secondly, the definition of material structure of an urban artifact identified by Rossi in the permanences and enriched by various contributions from other disciplines. The purpose of the present research is to revise the formation path made by Rossi in a critical way, starting by 1953, underlining its innovative aspects and identifying its describing limits, which will never lead to the formulation of an exact notion, but rather to the elaboration of a complex synthesis, enriched by references to other studies. In brief, the thesis is composed of three parts: 1. The first part, titled “The Theory of urban artifacts in The Architecture of the City”, analyzes the concept of urban artifact in the more general theoretical context of the book The Architecture of the City. Such analysis is done by “disassembling” the book, and by linking together the argumentations and the multiplicity of the sources which are explicitly quoted by Rossi. In this context, the book’s structure is defined more precisely through the revision of the references used by Rossi to compose his theoretical project. Moreover, the author’s life is traced back through the various editions, re-printings, introductions and illustrations. Finally, it is specified which role the concept of urban artifact has in the book, pointing out that it is placed in an equal relation with the book’s title; by so doing, the concept of urban artifact gets the new meaning of “fact to be observed”, similar to the use that was suggested by the French urban geography at the beginning of the 20th century. 2. The second part, titled “The formation of the notion of urban artifact 1953-66”, introduces the theoretical elaboration in Rossi’s writings before The Architecture of the City, that is from 1953 to 1966. This part tries to describe Rossi’s cultural roots, his collaborations and his interests, tracing back the progressive definition of his conception of city over time. The analysis focuses on the path followed by Rossi and on the documents that he wrote since the years as a student at the Department of Architecture at the Politecnico in Milan. This leads to a complex scenario of first essays, articles and notes that bear witness to the intellectual research aiming to the construction of a knowledge on the background of the Realism of the 1950s. Rossi develops, in fact, a cultural engagement that leads him after his studies to deal with more general issues about the city. In particular, his important collaboration with the architecture magazine “Casabella-continuità”, with the director Ernesto Nathan Rogers and with the whole redaction staff mark the following period when he starts getting interested in city planning literature, art, sociology, geography, economics and philosophy. Since 1963, Rossi has worked with the group directed by Carlo Aymonino at the “Istituto Universitario di Architettura” (University Institute of Architecture) in Venice, especially researching on building typologies and urban morphology. During these years, Rossi elaborates an analytical synthesis for the formulation of a theory about the city. From the present research, it is evident that the writings preceding The Architecture of the City develop the studies on urban artifacts, which will become theoretical core of different chapters of the book. In conclusion, the genesis of the book is described; written in two years, what was conceived to be an “urban planning manual” became a “treatise draft” for the formulation of an urban science, as Rossi defines it. 3. The third part is titled “The material structure of urban artifacts: the theory of permanence”. This research is made on the study of the city as a material fact, a manufacture, whose construction was made over time, bearing the traces of time. As far as the topic of permanence is concerned, it was also important to draw a comparison with the debate about the issues of environmental pre-existence of re-construction in historical areas, which was very lively during the years of the Reconstruction. Right from the beginning, of fundamental importance were the relationship with Ernesto Nathan Rogers, the discussions on the pages of Casabella-Continuità and the participation to some debates and researches. It is to note that various terms were taken by the philosophical thesis by some personalities such as Antonio Banfi and Enzo Paci, and then re-elaborated by the redaction staff at Casabella-Continuità, which Rossi took part in as well. Through this analysis, it emerged that there were some shifts in meaning and the formulation of a vocabulary of terms within the complex area of the architectonic culture in the 1950s and 1960s. Then, I examined the shapes in which Rossi introduces the definition of the theory of permanence and the references by some authors for the scientific construction of an architecture theory whose aim is being communicable and offering concrete research tools. Such analysis allowed making a hypothesis about the significance for Rossi of the French geographers of the first half of the 20th century: in particular, the work by Marcel Poëte and by Pierre Lavedan is the main source and the research area which Rossi mostly explored to define the theory of permanence and monuments. Therefore, in The Architecture of the City, permanencies are not presented as the “whole”, but they emerge from a method which isolates permanent urban artifacts, in this way allowing making a hypothesis on “what remains” after the continuous transformations made in the city. The sources examined were quoted by Rossi in The Architecture of the City; in particular I analyzed them in the same edition which Rossi referred to. Through such an analysis, it was possible to make a comparison of the texts with one another, which let emerge the use of terms taken by languages belonging to other disciplines in The Architecture of the City and which the use of wholly extrapolated concepts is. Methodological premises As far as the formulation of the notion of urban artifact is concerned, the analysis focuses on the originality of the expression, the connections that are assumed or contained in Rossi’s writings about the city, by collecting direct and indirect sources which formed a significant corpus of writings. The most relevant direct sources were found in the special collections of the Getty Research Institute in Los Angeles, where the “Aldo Rossi Papers” are conserved. This archive contains unpublished material from 1954 to 1988, such as manuscripts, typescripts, notebooks, cyclostyled documents, scraps and notes, and several letters. In the Aldo Rossi Papers there are also 32 out of the 47 Light Blue Notebooks (Quaderni Azzurri), the rough drafts of The Architecture of the City and of the “A Scientific Autobiography”. As regards The Architecture of the City in particular, the Aldo Rossi Papers preserve: a notebook by the title of “Urban planning manual, June, 1963”, which is an explicit first draft of the book; “Notes for urban planning book summer/winter 1963”; a notebook with a red cover dated September 20th, 1964 – August 8th, 1965; and a notebook with a blue cover dated August 30th, 1965 – December 15th, 1965. The possibility of accessing this archive allowed to increase the bibliography related to the youth studies, enabling a revision of the cultural path followed by Rossi’s education. To that end, it was fundamental to re-evaluate some issues linked to the socialist realism which led to a more precise picture of the first writings by Rossi against the background of the intellectual scenario where he formed. In addition to these texts, the collection of university researches, the articles published on specialized reviews and the speeches at debates and seminars were also examined. About The Architecture of the City, a wide-ranging critical literature was collected, related both to the text specifics and to its collocation in the story of architecture, questioning some observations which define The Architecture of the City as a conclusive and definite book. As far as the chapter on the permanence theory is concerned, the analysis started by the texts that Rossi indicated in The Architecture of the City, revealing the different contributions from the French literature on urban planning. This allowed to the present research a more specific definition of the connections to some central writings which, at the same time, were seen by Rossi as an opportunity to start up the elaboration of the idea of type. For this last part, it can be specified that Rossi formulates his idea of type in a cultural context where the interest in this topic was fundamental. Therefore, the sources which played a central role in this final phase emerge from an extensive panorama in which Rossi researched not only with the redaction staff at Casablanca-continuità and within the School of Venice in the 1960s, but also in his studies for the ILSES (Institute of the Region Lombardia for Economics and Social Studies) and for the National Institute of Urban Planning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract. This thesis presents a discussion on a few specific topics regarding the low velocity impact behaviour of laminated composites. These topics were chosen because of their significance as well as the relatively limited attention received so far by the scientific community. The first issue considered is the comparison between the effects induced by a low velocity impact and by a quasi-static indentation experimental test. An analysis of both test conditions is presented, based on the results of experiments carried out on carbon fibre laminates and on numerical computations by a finite element model. It is shown that both quasi-static and dynamic tests led to qualitatively similar failure patterns; three characteristic contact force thresholds, corresponding to the main steps of damage progression, were identified and found to be equal for impact and indentation. On the other hand, an equal energy absorption resulted in a larger delaminated area in quasi-static than in dynamic tests, while the maximum displacement of the impactor (or indentor) was higher in the case of impact, suggesting a probably more severe fibre damage than in indentation. Secondly, the effect of different specimen dimensions and boundary conditions on its impact response was examined. Experimental testing showed that the relationships of delaminated area with two significant impact parameters, the absorbed energy and the maximum contact force, did not depend on the in-plane dimensions and on the support condition of the coupons. The possibility of predicting, by means of a simplified numerical computation, the occurrence of delaminations during a specific impact event is also discussed. A study about the compressive behaviour of impact damaged laminates is also presented. Unlike most of the contributions available about this subject, the results of compression after impact tests on thin laminates are described in which the global specimen buckling was not prevented. Two different quasi-isotropic stacking sequences, as well as two specimen geometries, were considered. It is shown that in the case of rectangular coupons the lay-up can significantly affect the damage induced by impact. Different buckling shapes were observed in laminates with different stacking sequences, in agreement with the results of numerical analysis. In addition, the experiments showed that impact damage can alter the buckling mode of the laminates in certain situations, whereas it did not affect the compressive strength in every case, depending on the buckling shape. Some considerations about the significance of the test method employed are also proposed. Finally, a comprehensive study is presented regarding the influence of pre-existing in-plane loads on the impact response of laminates. Impact events in several conditions, including both tensile and compressive preloads, both uniaxial and biaxial, were analysed by means of numerical finite element simulations; the case of laminates impacted in postbuckling conditions was also considered. The study focused on how the effect of preload varies with the span-to-thickness ratio of the specimen, which was found to be a key parameter. It is shown that a tensile preload has the strongest effect on the peak stresses at low span-to-thickness ratios, leading to a reduction of the minimum impact energy required to initiate damage, whereas this effect tends to disappear as the span-to-thickness ratio increases. On the other hand, a compression preload exhibits the most detrimental effects at medium span-to-thickness ratios, at which the laminate compressive strength and the critical instability load are close to each other, while the influence of preload can be negligible for thin plates or even beneficial for very thick plates. The possibility to obtain a better explanation of the experimental results described in the literature, in view of the present findings, is highlighted. Throughout the thesis the capabilities and limitations of the finite element model, which was implemented in an in-house program, are discussed. The program did not include any damage model of the material. It is shown that, although this kind of analysis can yield accurate results as long as damage has little effect on the overall mechanical properties of a laminate, it can be helpful in explaining some phenomena and also in distinguishing between what can be modelled without taking into account the material degradation and what requires an appropriate simulation of damage. Sommario. Questa tesi presenta una discussione su alcune tematiche specifiche riguardanti il comportamento dei compositi laminati soggetti ad impatto a bassa velocità. Tali tematiche sono state scelte per la loro importanza, oltre che per l’attenzione relativamente limitata ricevuta finora dalla comunità scientifica. La prima delle problematiche considerate è il confronto fra gli effetti prodotti da una prova sperimentale di impatto a bassa velocità e da una prova di indentazione quasi statica. Viene presentata un’analisi di entrambe le condizioni di prova, basata sui risultati di esperimenti condotti su laminati in fibra di carbonio e su calcoli numerici svolti con un modello ad elementi finiti. È mostrato che sia le prove quasi statiche sia quelle dinamiche portano a un danneggiamento con caratteristiche qualitativamente simili; tre valori di soglia caratteristici della forza di contatto, corrispondenti alle fasi principali di progressione del danno, sono stati individuati e stimati uguali per impatto e indentazione. D’altro canto lo stesso assorbimento di energia ha portato ad un’area delaminata maggiore nelle prove statiche rispetto a quelle dinamiche, mentre il massimo spostamento dell’impattatore (o indentatore) è risultato maggiore nel caso dell’impatto, indicando la probabilità di un danneggiamento delle fibre più severo rispetto al caso dell’indentazione. In secondo luogo è stato esaminato l’effetto di diverse dimensioni del provino e diverse condizioni al contorno sulla sua risposta all’impatto. Le prove sperimentali hanno mostrato che le relazioni fra l’area delaminata e due parametri di impatto significativi, l’energia assorbita e la massima forza di contatto, non dipendono dalle dimensioni nel piano dei provini e dalle loro condizioni di supporto. Viene anche discussa la possibilità di prevedere, per mezzo di un calcolo numerico semplificato, il verificarsi di delaminazioni durante un determinato caso di impatto. È presentato anche uno studio sul comportamento a compressione di laminati danneggiati da impatto. Diversamente della maggior parte della letteratura disponibile su questo argomento, vengono qui descritti i risultati di prove di compressione dopo impatto su laminati sottili durante le quali l’instabilità elastica globale dei provini non è stata impedita. Sono state considerate due differenti sequenze di laminazione quasi isotrope, oltre a due geometrie per i provini. Viene mostrato come nel caso di provini rettangolari la sequenza di laminazione possa influenzare sensibilmente il danno prodotto dall’impatto. Due diversi tipi di deformate in condizioni di instabilità sono stati osservati per laminati con diversa laminazione, in accordo con i risultati dell’analisi numerica. Gli esperimenti hanno mostrato inoltre che in certe situazioni il danno da impatto può alterare la deformata che il laminato assume in seguito ad instabilità; d’altra parte tale danno non ha sempre influenzato la resistenza a compressione, a seconda della deformata. Vengono proposte anche alcune considerazioni sulla significatività del metodo di prova utilizzato. Infine viene presentato uno studio esaustivo riguardo all’influenza di carichi membranali preesistenti sulla risposta all’impatto dei laminati. Sono stati analizzati con simulazioni numeriche ad elementi finiti casi di impatto in diverse condizioni di precarico, sia di trazione sia di compressione, sia monoassiali sia biassiali; è stato preso in considerazione anche il caso di laminati impattati in condizioni di postbuckling. Lo studio si è concentrato in particolare sulla dipendenza degli effetti del precarico dal rapporto larghezza-spessore del provino, che si è rivelato un parametro fondamentale. Viene illustrato che un precarico di trazione ha l’effetto più marcato sulle massime tensioni per bassi rapporti larghezza-spessore, portando ad una riduzione della minima energia di impatto necessaria per innescare il danneggiamento, mentre questo effetto tende a scomparire all’aumentare di tale rapporto. Il precarico di compressione evidenzia invece gli effetti più deleteri a rapporti larghezza-spessore intermedi, ai quali la resistenza a compressione del laminato e il suo carico critico di instabilità sono paragonabili, mentre l’influenza del precarico può essere trascurabile per piastre sottili o addirittura benefica per piastre molto spesse. Viene evidenziata la possibilità di trovare una spiegazione più soddisfacente dei risultati sperimentali riportati in letteratura, alla luce del presente contributo. Nel corso della tesi vengono anche discussi le potenzialità ed i limiti del modello ad elementi finiti utilizzato, che è stato implementato in un programma scritto in proprio. Il programma non comprende alcuna modellazione del danneggiamento del materiale. Viene però spiegato come, nonostante questo tipo di analisi possa portare a risultati accurati soltanto finché il danno ha scarsi effetti sulle proprietà meccaniche d’insieme del laminato, esso possa essere utile per spiegare alcuni fenomeni, oltre che per distinguere fra ciò che si può riprodurre senza tenere conto del degrado del materiale e ciò che invece richiede una simulazione adeguata del danneggiamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conoscenza delle esigenze luminose (intensità, spettro, durata minima, massima ed ottimale del fotoperiodo di illuminazione) e della tolleranza alle condizioni degli interni delle piante ad uso decorativo, è di fondamentale importanza per una giusta tecnica di progettazione (dimensionamento e dislocazione dei punti luce) dell’indoor plantscaping. Il lungo periodo di condizionamento al quale queste piante vengono sottoposte, caratterizzato principalmente dalla scarsa disponibilità di luce naturale e dagli alti livelli di concentrazione di CO2 determina una forte influenza sui processi morfo-fisiologici. Il presente studio analizza il fattore luminoso ed è articolato su più punti quali; • caratterizzazione della riposta fotosintetica all’intensità luminosa di 21 delle principali specie a fogliame decorativo comunemente utilizzate nella realizzazione degli spazi verdi indoor, per stabilire quali siano i minimi ed ottimali livelli di PAR tali da garantire una fotosintesi netta positiva e nel complesso le condizioni di maggior benessere per le piante; • quantificazione dell’incremento fotosintetico netto dovuto ad una maggior concentrazione di CO2 negli interni rispetto alla concentrazione CO2 atmosferica esterna, all’aumentare dell’ intensità luminosa artificiale sulle precedenti specie; • monitoraggio dell’andamento delle attività fotosintetiche durante il periodo di illuminazione di 8 ore comunemente utilizzato in un interno ad uso lavorativo, a PAR costante e variabile in Ficus elastica e Dieffenbachia picta, al fine di stabilire quali possano essere le durate e le modalità di somministrazione della luce per rendere massima la fotosintesi netta riducendo al minimo i consumi energetici dovuti all’accensione delle lampade; • valutazione della risposta morfo-fisiologica e fotosintetica a modificazioni dello spettro luminoso mediante l’uso di LED monocromatici colorati ad emissione nel bianco, blu e rosso in Ficus benjamina e Iresine herbistii al fine di stabilire se questo tipo di lampade possano essere utilizzate come fonte integrativa e/o sostitutiva nella realizzazione degli spazi verdi interni. Vengono analizzati il punto si compensazione alla luce (g), il punto di saturazione alla luce (s), l’efficienza quantica (AQE), il punto di respirazione al buio (Rd) e la fotosintesi netta massima (A max) per (Aglaonema commutatum, Asplenium nidus, Anthurium andreanum, Begonia rex, Calathea luoise, Calathea veitchiana, Calathea rufibarba, Calathea zebrina, Codiaeum variegatum, Cthenanthe oppenheimiana, Dieffenbakia picta, Ficus benjamina, Ficus elatica, Ficus longifolia, Fittonia verschaffeltii, Iresine herbistii, Philodendron erubescens, Philodendron pertusum, Potos aureus, Spathiphillum wallisi, Syngonium podophillum ) e classificate le specie in funzione di Amax in quattro categorie; A max < 2 µmol CO2 m-2 s-1, A max compresa tra 2 e 4 µmol CO2 m-2 s-1, Amax cpmpresa tra 4 e 6 µmol CO2 m-2 s-1, Amax > 6 µmol CO2 m-2 s-1, al fine di mettere in risalto la potenzialità fotosintetiche di ogni singola specie. I valori di PAR compresi tra (g) ed (s) forniscono le indicazioni sulle quali basarsi per scegliere una giusta lampada o dimensionare un punto luce per ogni singola specie e/o composizione. È stimata l’influenza di due livelli di concentrazione di CO2 ambientale (400 e 800 ppm) all’incrementare dell’intensità luminosa sul processo fotosintetico delle specie precedenti. Per quasi tutte le specie 800 ppm di CO2 non favoriscono nessun incremento all’attività fotosintetica ad eccezione di Ficus benjamina, Ficus elatica e Syngonium podophillum se non accompagnati da una disponibilità luminosa superiore alle 10 µmol m-2 s-1. Viene monitorato l’andamento dell’attività fotosintetica a PAR costante e variabile (intervallando periodi di 8 minuti a PAR 40 e 80) durante 8 ore di illuminazione su Ficus elastica e Dieffenbachia picta al fine di stabilire la miglior modalità di somministrazione della luce. La fotosintesi netta cumulativa per l’intera durata di illuminazione a PAR costante mostra un calo dopo alcune ore dall’attivazione in Dieffenbackia, e un andamento oscillatorio in Ficus. L’illuminazione alternata consente di raggiungere i quantitativi di CO2 organicata a 80 µmol m-2 s-1 di PAR, dopo 5 ore e mezza sia in Ficus che Dieffenbackia sebbene le potenzialità fotosintetiche delle due piante siano molto differenti. È stato valutato l’effetto dell’illuminazione artificiale mediante LED (15W) a luce bianca, blu e rossa monocromatica in rapporto alla luce neon(36W) bianca tradizionale (con differenti abbinamenti tra le lampade) sui principali parametri morfologici e fisiologici, in Ficus benjamin ‘Variegata’ e Iresine herbistii per verificare se tali fonti possono rappresentare una valida alternativa nella sostituzione o integrazione di altre lampade per gli spazi verdi indoor. Tutte le combinazioni LED indagate possono rappresentare un’alternativa di sostituzione alla coltivazione con neon ed un risparmio energetico di oltre il 50%. Una PAR di 20,6 µmol m-2 s-1 della singola lampada LED bianco è sufficiente per mantenere la pianta in condizioni di sopravvivenza con un consumo di 15W a fronte dei 36W necessari per il funzionamento di ogni neon. La combinazione LED bianco + LED blu monocromatico favorisce il contenimento della taglia della pianta, caratteristica gradita nella fase di utilizzo indoor, una maggior produzione di sostanza secca e un’attività fotosintetica più elevata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel mondo reale il comportamento umano si rivela essere fallace e distorto, sia a livello individuale che ambientale. L'organizzazione a sua volta non è esente da tali limiti; composta da esseri umani, interagisce con l'ambiente in modo fortemente soggettivo, basandosi sull'intuizione, su informazioni di breve periodo e senza riuscire a comprenderlo pienamente. Il presente lavoro di tesi si occupa di esplorare un ambiente di mercato, in presenza di organizzazioni caratterizzate da un processo decisionale fortemente soggettivo. Tramite alcuni esperimenti su un modello di simulazione, saranno studiate le interazioni delle organizzazioni con l'ambiente. L'obiettivo è quello di ottenere una migliore comprensione del comportamento delle organizzazioni nella dinamica competitiva, soprattutto in relazione a ciò che può garantire un vantaggio competitivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi è stata sviluppata una Firefox Extension per la registrazione e la replicazione di procedure sul Web. Si tratterà a fondo l’ambiente tecnologico nel quale è stata sviluppata l’applicazione e il contesto in cui si inserisce una Firefox Extension. Illustreremo il problema che intendiamo risolvere con la nostra estensione,il contesto applicativo in cui si inserisce e riporteremo una serie di lavori correlati che cercano, con diversi approcci, di risolvere il nostro stesso problema. Illustreremo il lavoro trattando approfonditamente l’approccio da noi utilizzato, mostrandone i vantaggi e i limiti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro presentato in questa tesi si colloca nel contesto della programmazione con vincoli, un paradigma per modellare e risolvere problemi di ricerca combinatoria che richiedono di trovare soluzioni in presenza di vincoli. Una vasta parte di questi problemi trova naturale formulazione attraverso il linguaggio delle variabili insiemistiche. Dal momento che il dominio di tali variabili può essere esponenziale nel numero di elementi, una rappresentazione esplicita è spesso non praticabile. Recenti studi si sono quindi focalizzati nel trovare modi efficienti per rappresentare tali variabili. Pertanto si è soliti rappresentare questi domini mediante l'uso di approssimazioni definite tramite intervalli (d'ora in poi rappresentazioni), specificati da un limite inferiore e un limite superiore secondo un'appropriata relazione d'ordine. La recente evoluzione della ricerca sulla programmazione con vincoli sugli insiemi ha chiaramente indicato che la combinazione di diverse rappresentazioni permette di raggiungere prestazioni di ordini di grandezza superiori rispetto alle tradizionali tecniche di codifica. Numerose proposte sono state fatte volgendosi in questa direzione. Questi lavori si differenziano su come è mantenuta la coerenza tra le diverse rappresentazioni e su come i vincoli vengono propagati al fine di ridurre lo spazio di ricerca. Sfortunatamente non esiste alcun strumento formale per paragonare queste combinazioni. Il principale obiettivo di questo lavoro è quello di fornire tale strumento, nel quale definiamo precisamente la nozione di combinazione di rappresentazioni facendo emergere gli aspetti comuni che hanno caratterizzato i lavori precedenti. In particolare identifichiamo due tipi possibili di combinazioni, una forte ed una debole, definendo le nozioni di coerenza agli estremi sui vincoli e sincronizzazione tra rappresentazioni. Il nostro studio propone alcune interessanti intuizioni sulle combinazioni esistenti, evidenziandone i limiti e svelando alcune sorprese. Inoltre forniamo un'analisi di complessità della sincronizzazione tra minlex, una rappresentazione in grado di propagare in maniera ottimale vincoli lessicografici, e le principali rappresentazioni esistenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa dissertazione esamina le sfide e i limiti che gli algoritmi di analisi di grafi incontrano in architetture distribuite costituite da personal computer. In particolare, analizza il comportamento dell'algoritmo del PageRank così come implementato in una popolare libreria C++ di analisi di grafi distribuiti, la Parallel Boost Graph Library (Parallel BGL). I risultati qui presentati mostrano che il modello di programmazione parallela Bulk Synchronous Parallel è inadatto all'implementazione efficiente del PageRank su cluster costituiti da personal computer. L'implementazione analizzata ha infatti evidenziato una scalabilità negativa, il tempo di esecuzione dell'algoritmo aumenta linearmente in funzione del numero di processori. Questi risultati sono stati ottenuti lanciando l'algoritmo del PageRank della Parallel BGL su un cluster di 43 PC dual-core con 2GB di RAM l'uno, usando diversi grafi scelti in modo da facilitare l'identificazione delle variabili che influenzano la scalabilità. Grafi rappresentanti modelli diversi hanno dato risultati differenti, mostrando che c'è una relazione tra il coefficiente di clustering e l'inclinazione della retta che rappresenta il tempo in funzione del numero di processori. Ad esempio, i grafi Erdős–Rényi, aventi un basso coefficiente di clustering, hanno rappresentato il caso peggiore nei test del PageRank, mentre i grafi Small-World, aventi un alto coefficiente di clustering, hanno rappresentato il caso migliore. Anche le dimensioni del grafo hanno mostrato un'influenza sul tempo di esecuzione particolarmente interessante. Infatti, si è mostrato che la relazione tra il numero di nodi e il numero di archi determina il tempo totale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio sviluppato nella tesi fa riferimento all’ampio database sperimentale raccolto presso il sito campione di Treporti (VE), nell’ambito di un progetto di ricerca finalizzato alla caratterizzazione geotecnica del complesso sottosuolo della Laguna Veneta. Il sottosuolo lagunare è infatti caratterizzato da una fitta alternanza di sedimenti a matrice prevalentemente limosa, dal comportamento intermedio fra sabbie e argille. Il progetto di ricerca prevedeva la realizzazione di una vasta campagna di indagini in sito, articolata in più fasi e integrata da un programma sperimentale di laboratorio; nell’area in esame è stato inoltre costruito un rilevato sperimentale in vera grandezza, continuamente monitorato con una sofisticata strumentazione per circa quattro anni, fino alla sua graduale rimozione. Il lavoro di tesi proposto riguarda l’analisi dei dati provenienti dalle numerose prove dilatometriche (DMT) e con piezocono (CPTU) effettuate a Treporti, con particolare riferimento alle prove di tipo sismico (SDMT e SCPTU) realizzate sia prima della costruzione del rilevato sia a seguito della rimozione dello stesso. Rispetto alla prove “tradizionali”, le prove sismiche permettono anche la misura della velocità delle onde di taglio (Vs), la cui conoscenza è richiesta anche dalle recenti Norme Tecniche delle Costruzioni e della quale è possibile risalire agevolmente al modulo di rigidezza elastico a piccolissime deformazioni (G0). L’enorme database raccolto in questo sito offre tra l’altro l’interessante ed inusuale possibilità di mettere a confronto dati ricavati da prove dilatometriche e con piezocono relative a verticali adiacenti, svolte in diverse fasi della storia di carico imposta al sottosuolo dell’area mediante la costruzione del rilevato. L’interpretazione dei dati penetrometrici e dilatometrici è stata fatta utilizzando i più recenti approcci interpretativi proposti nella letteratura del settore. È importante sottolineare che la possibilità di classificare e stimare i parametri meccanici del sottosuolo lagunare a partire da prove diverse ha permesso una valutazione critica delle procedure interpretative adottate e, in taluni casi, ha messo in evidenza i limiti di alcuni approcci, pur se limitatamente al caso specifico in esame. In alcuni casi, grazie all’uso integrato delle prove dilatometriche e penetrometriche è stato possibile mettere a punto specifiche correlazioni alternative a quelle esistenti, calibrate sui dati sperimentali di Treporti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi si colloca nell’ambito della valutazione del rischio di incidente rilevante. Ai sensi della normativa europea (direttive Seveso) e del loro recepimento nella legislazione nazionale (D.Lgs. 334/99 e s.m.i.) un incidente rilevante è costituito da un evento incidentale connesso al rilascio di sostanze pericolose in grado di causare rilevanti danni all’uomo e/o all’ambiente. Ora, se da un lato esistono indici di rischio quantitativi per il bersaglio ”uomo” da tempo definiti e universalmente adottati nonché metodologie standardizzate e condivise per il loro calcolo, dall’altro non vi sono analoghi indici di rischio per il bersaglio “ambiente” comunemente accettati né, conseguentemente, procedure per il loro calcolo. Mancano pertanto anche definizioni e metodologie di calcolo di indici di rischio complessivo, che tengano conto di entrambi i bersagli citati dalla normativa. Al fine di colmare questa lacuna metodologica, che di fatto non consente di dare pieno adempimento alle stesse disposizioni legislative, è stata sviluppata all’interno del Dipartimento di Ingegneria Chimica, Mineraria e delle Tecnologie Ambientali dell’Università degli Studi di Bologna una ricerca che ha portato alla definizione di indici di rischio per il bersaglio “ambiente” e alla messa a punto di una procedura per la loro stima. L’attenzione è stata rivolta in modo specifico al comparto ambientale del suolo e delle acque sotterranee (falda freatica) ed ai rilasci accidentali da condotte di sostanze idrocarburiche immiscibili e più leggere dell’acqua, ovvero alle sostanze cosiddette NAPL – Non Acqueous Phase Liquid, con proprietà di infiammabilità e tossicità. Nello specifico si sono definiti per il bersaglio “ambiente” un indice di rischio ambientale locale rappresentato, punto per punto lungo il percorso della condotta, dai volumi di suolo e di acqua contaminata, nonché indici di rischio ambientale sociale rappresentati da curve F/Vsuolo e F/Sacque, essendo F la frequenza con cui si hanno incidenti in grado di provocare contaminazioni di volumi di suolo e di superfici di falda uguali o superiori a Vsuolo e Sacque. Tramite i costi unitari di decontaminazione del suolo e delle acque gli indici di rischio ambientale sociale possono essere trasformati in indici di rischio ambientale sociale monetizzato, ovvero in curve F/Msuolo e F/Macque, essendo F la frequenza con cui si hanno incidenti in grado di provocare inquinamento di suolo e di acque la cui decontaminazione ha costi uguali o superiori a Msuolo ed Macque. Dalla combinazione delle curve F/Msuolo e F/Macque è possibile ottenere la curva F/Mambiente, che esprime la frequenza degli eventi incidentali in grado di causare un danno ambientale di costo uguale o superiore a Mambiente. Dalla curva di rischio sociale per l’uomo ovvero dalla curva F/Nmorti, essendo F la frequenza con cui si verificano incidenti in grado di determinare un numero di morti maggiore o uguale ad Nmorti, tramite il costo unitario della vita umana VSL (Value of a Statistical Life), è possibile ottenete la curva F/Mmorti, essendo F la frequenza con cui si verificano incidenti in grado di determinare un danno monetizzato all’uomo uguale o superiore ad Mmorti. Dalla combinazione delle curve F/Mambiente ed F/Mmorti è possibile ottenere un indice di rischio sociale complessivo F/Mtotale, essendo F la frequenza con cui si verifica un danno economico complessivo uguale o superiore ad Mtotale. La procedura ora descritta è stata implementata in un apposito software ad interfaccia GIS denominato TRAT-GIS 4.1, al fine di facilitare gli onerosi calcoli richiesti nella fase di ricomposizione degli indici di rischio. La metodologia è stata fino ad ora applicata ad alcuni semplici casi di studio fittizi di modeste dimensioni e, limitatamente al calcolo del rischio per il bersaglio “ambiente”, ad un solo caso reale comunque descritto in modo semplificato. Il presente lavoro di tesi rappresenta la sua prima applicazione ad un caso di studio reale, per il quale sono stati calcolati gli indici di rischio per l’uomo, per l’ambiente e complessivi. Tale caso di studio è costituito dalla condotta che si estende, su un tracciato di 124 km, da Porto Marghera (VE) a Mantova e che trasporta greggi petroliferi. La prima parte del lavoro di tesi è consistita nella raccolta e sistematizzazione dei dati necessari alla stima delle frequenze di accadimento e delle conseguenze per l’uomo e per l’ambiente degli eventi dannosi che dalla condotta possono avere origine. In una seconda fase si è proceduto al calcolo di tali frequenze e conseguenze. I dati reperiti hanno riguardato innanzitutto il sistema “condotta”, del quale sono stati reperiti da un lato dati costruttivi (quali il diametro, la profondità di interramento, la posizione delle valvole sezionamento) e operativi (quali la portata, il profilo di pressione, le caratteristiche del greggio), dall’altro informazioni relative alle misure di emergenza automatiche e procedurali in caso di rilascio, al fine di stimare le frequenze di accadimento ed i termini “sorgente” (ovvero le portate di rilascio) in caso di rotture accidentali per ogni punto della condotta. In considerazione delle particolarità della condotta in esame è stata sviluppata una procedura specifica per il calcolo dei termini sorgente, fortemente dipendenti dai tempi degli interventi di emergenza in caso di rilascio. Una ulteriore fase di raccolta e sistematizzazione dei dati ha riguardato le informazioni relative all’ambiente nel quale è posta la condotta. Ai fini del calcolo del rischio per il bersaglio “uomo” si sono elaborati i dati di densità abitativa nei 41 comuni attraversati dall’oleodotto. Il calcolo dell’estensione degli scenari incidentali dannosi per l’uomo è stato poi effettuato tramite il software commerciale PHAST. Allo scopo della stima del rischio per il bersaglio “ambiente” è stata invece effettuata la caratterizzazione tessiturale dei suoli sui quali corre l’oleodotto (tramite l’individuazione di 5 categorie di terreno caratterizzate da diversi parametri podologici) e la determinazione della profondità della falda freatica, al fine di poter calcolare l’estensione della contaminazione punto per punto lungo la condotta, effettuando in tal modo l’analisi delle conseguenze per gli scenari incidentali dannosi per l’ambiente. Tale calcolo è stato effettuato con il software HSSM - Hydrocarbon Spill Screening Model gratuitamente distribuito da US-EPA. La ricomposizione del rischio, basata sui risultati ottenuti con i software PHAST e HSSM, ha occupato la terza ed ultima fase del lavoro di tesi; essa è stata effettuata tramite il software TRAT-GIS 4.1, ottenendo in forma sia grafica che alfanumerica gli indici di rischio precedentemente definiti. L’applicazione della procedura di valutazione del rischio al caso dell’oleodotto ha dimostrato come sia possibile un’analisi quantificata del rischio per l’uomo, per l’ambiente e complessivo anche per complessi casi reali di grandi dimensioni. Gli indici rischio ottenuti consentono infatti di individuare i punti più critici della condotta e la procedura messa a punto per il loro calcolo permette di testare l’efficacia di misure preventive e protettive adottabili per la riduzione del rischio stesso, fornendo al tempo gli elementi per un’analisi costi/benefici connessa all’implementazione di tali misure. Lo studio effettuato per la condotta esaminata ha inoltre fornito suggerimenti per introdurre in alcuni punti della metodologia delle modifiche migliorative, nonché per facilitare l’analisi tramite il software TRAT-GIS 4.1 di casi di studio di grandi dimensioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mia tesi dal titolo ”Applicazione della tecnica PSinSAR™ allo studio di fenomeni franosi lenti: casi di studio in Emilia-Romagna” ha avuto come obiettivo quello di mostrare le potenzialità e i limiti della tecnica PSinSAR nel monitoraggio di fenomeni franosi localizzati in Val Marecchia. Ho svolto, nel capitolo due, un’analisi preliminare dell’area di studio andando a evidenziare prima le caratteristiche climatiche, piogge medie annue e le temperature minime e massime, e a seguire sono passato a descrivere l’inquadramento geologico e geomorfologico. L’area della Val Marecchia è, da questo punto di vista, molto particolare poggiando su quella che è definita dagli autori “coltre della Val Marecchia”; essa è un complesso alloctono sovrascorso ai terreni autoctoni della successione Umbro – Romagnola - Marchigiana. La traslazione verso Est della coltre avvenne per "scatti", in funzione delle principali fasi tettoniche appenniniche, separati da momenti di pausa in cui sedimentarono le formazioni più recenti le quali poi si spostarono in modo solidale con la coltre. La coltre, infatti, è costituita da un insieme di formazioni di età diverse e in particolare ritroviamo, partendo da quella più antica l’unità ligure, l’unità subligure e infine l’unità epiligure. La presenza di formazioni più recenti sopra ad altre più antiche rende unica la morfologia della vallata con enormi blocchi rocciosi poggianti su un substrato in genere argilloso come nell’esempio più famoso della rupe di San Leo. Da queste analisi è emersa un’altra caratteristica peculiare della valle cioè la forte tendenza a essere interessata da dissesti di varie tipologie. Gli indici di franosità mostrano che nella zona alta della vallata circa il 50% del territorio è interessato da dissesti, valore che decresce leggermente nella parte media e bassa della valle. Il motivo di tale instabilità è da imputare in parte alla forte erosione che avviene sulle placche epiliguri e in parte alle caratteristiche scadenti del substrato che è per lo più composto di argille e arenarie. Per quanto riguarda le tipologie di frane in Val Marecchia la situazione è molto eterogenea; in particolari le tre tipologie più frequenti sono il colamento lento, lo scivolamento rotazionale/traslativo e le frane di tipo complesso. Nel terzo capitolo ho descritto la tecnica PSinSAR; essa si basa sull’elaborazione di scene riprese da satellite per giungere alla formazione di una rete di punti, i PS, di cui conosciamo i movimenti nel tempo. I Permanent Scatterer (PS) sono dei bersagli radar individuati sulla superficie terrestre dal sensori satellitari caratterizzati per il fatto di possedere un’elevata stabilità nel tempo alla risposta elettromagnetica. I PS nella maggior parte dei casi corrispondono a manufatti presenti sulla superficie quali edifici, monumenti, strade, antenne e tralicci oppure ad elementi naturali come per esempio rocce esposte o accumuli di detrito. Lo spostamento viene calcolato lungo la linea di vista del satellite, per cui il dato in uscita non mostra lo spostamento effettivo del terreno, ma l'allontanamento o l'avvicinamento del punto rispetto al satellite. La misure sono sempre differenziali, ovvero sono riferite spazialmente a un punto noto a terra chiamato reference point, mentre temporalmente alla data di acquisizione della prima immagine. La tecnica PSinSAR proprio per la sua natura è "cieca" rispetto ai movimenti in direzione Nord-Sud. Le scene utilizzate per la creazione dei dataset di PS derivano quasi interamente dai satelliti ERS e ENVISAT. Tuttora sono disponibili anche le scene dei satelliti TerraSAR-X, RADARSAT e Cosmo Skymed. I sensori utilizzati in questo ambito sono i SAR (Synthetic Aperture Radar) che sono sensori attivi, cioè emettono loro stessi l'energia necessaria per investigare la superficie terrestre al contrario dei sensori ottici. Questo permette di poter acquisire scene anche di notte e in condizioni di cielo nuvoloso. La tecnica PSinSAR presenta molti vantaggi rispetto alle tecniche interferometriche tradizionali essa, infatti, è immune agli errori di decorrelamento temporale e spaziale oltre agli errori atmosferici, che portavano ad avere precisioni non inferiori a qualche cm, mentre ora l’errore di misura sulla velocità media di spostamento si attesta in genere sui 2 mm. La precisione che si ha nella georeferenziazione dei punti è in genere di circa 4-7 m lungo la direzione Est e circa 1-2 m in quella Nord. L’evoluzione di PSinSAR, SqueeSAR, permette un numero maggiore di punti poiché oltre ai Permanent Scatterers PS, tramite un apposito algoritmo, calcola anche i Distribuited Scatterer DS. I dataset di dati PS che ho utilizzato nel mio lavoro di tesi (PSinSAR) derivano, come detto in precedenza, sia da scene riprese dal satellite ERS che da ENVISAT nelle due modalità ascendenti e discendenti; nel primo caso si hanno informazioni sui movimenti avvenuti tra il 1992 e il 2000 mentre per l’ENVISAT tra il 2002 e il 2008. La presenza di dati PS nelle due modalità di ripresa sulla stessa zona permette tramite alcuni calcoli di ricavare la direzione effettiva di spostamento. È importante però sottolineare che, a seconda della modalità di ripresa, alcune aree possono risultare in ombra, per questo nell’analisi dei vari casi di studio non sempre sono stati utilizzabili tutti i dataset. Per l'analisi dei vari casi di studio, presentati nel capitolo 4, ho utilizzato diverso materiale cartografico. In particolare mi sono servito delle Carte Tecniche Regionali (CTR) a scala 1:10000 e 1:5000, in formato digitale, come base cartografica. Sempre in formato digitale ho utilizzato anche le carte geologiche e geomorfologiche dell'area della Val Marecchia (fogli 266, 267, 278) oltre, per finire, agli shapefile presi dal database online del Piano stralcio dell’Assetto Idrogeologico PAI. Il software usato per la realizzazione del lavoro di tesi è stato ArcGIS di proprietà di ESRI. Per ogni caso di studio ho per prima cosa effettuato un'analisi dal punto di vista geologico e geomorfologico, in modo da fare un quadro delle formazioni presenti oltre ad eventuali fenomeni franosi mostrati dalle carte. A seguire ho svolto un confronto fra il dato PS, e quindi i valori di spostamento, e la perimetrazione mostrata nel PAI. Per alcuni casi di studio il dato PS ha mostrato movimenti in aree già perimetrate nel PAI come "in dissesto", mentre in altri il dato satellitare ha permesso di venire a conoscenza di fenomeni non conosciuti (come ad esempio nel caso di Monte Gregorio). Per ogni caso di studio ho inoltre scelto alcuni PS caratteristici (solitamente quelli a coerenza maggiore) e ho ricavato la relativa serie storica. In questo modo è stato possibile verificare lo spostamento durante tutti gli anni in cui sono state prese le scene (dal 1992 al 2000 per dati ERS, dal 2002 al 2008 per dati ENVISAT) potendo quindi mettere in luce accelerazioni o assestamenti dei fenomeni nel tempo, oltre a escludere la presenza di trend di spostamento anomali imputabili nella maggior parte dei casi a errori nel dato. L’obiettivo della tesi è stato da una parte di verificare la bontà del dato PS nell’interpretazione dei movimenti dovuti a dissesti franosi e dall’altra di fare un confronto tra il dato di spostamento ricavato dai PS e i vari inventari o carte di piano. Da questo confronto sono emerse informazioni molti interessanti perché è stato possibile avere conferme di movimento su dissesti già conosciuti (Sant’Agata Feltria, San Leo e altri) ma anche di venire a conoscenza di fenomeni non conosciuti (Monte Gregorio). In conclusione è emerso dal mio lavoro che il monitoraggio tramite tecnica PSinSAR necessita di essere integrato con le tecniche tradizionali poiché presenta alcune limitazioni importanti come l’impossibilità di "vedere" movimenti veloci o lungo la direzione Nord-Sud, oltre ad avere dati in aree vegetate o scarsamente abitate. I vantaggi sono però notevoli potendo monitorare con un’unica ripresa vaste porzioni di territorio oltre ad avere serie storiche consistenti, in grado di evidenziare i movimenti avvenuti nel passato. Tale tecnica quindi, secondo il mio parere, può essere utilizzata come supporto alla stesura di cartografia di fenomeni franosi fornendo informazioni aggiuntive rispetto alle varie tecniche tradizionali come il GPS, sondaggi geotecnici e sondaggi inclinometrici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Definizione del problema: Nonostante il progresso della biotecnologia medica abbia consentito la sopravvivenza del feto, fuori dall’utero materno, ad età gestazionali sempre più basse, la prognosi a breve e a lungo termine di ogni nuovo nato resta spesso incerta e la medicina non è sempre in grado di rimediare completamente e definitivamente ai danni alla salute che spesso contribuisce a causare. Sottoporre tempestivamente i neonati estremamente prematuri alle cure intensive non ne garantisce la sopravvivenza; allo stesso modo, astenervisi non ne garantisce la morte o almeno la morte immediata; in entrambi i casi i danni alla salute (difetti della vista e dell’udito, cecità, sordità, paralisi degli arti, deficit motori, ritardo mentale, disturbi dell’apprendimento e del comportamento) possono essere gravi e permanenti ma non sono prevedibili con certezza per ogni singolo neonato. Il futuro ignoto di ogni nuovo nato, insieme allo sgretolamento di terreni morali condivisi, costringono ad affrontare laceranti dilemmi morali sull’inizio e sul rifiuto, sulla continuazione e sulla sospensione delle cure. Oggetto: Questo lavoro si propone di svolgere un’analisi critica di alcune strategie teoriche e pratiche con le quali, nell’ambito delle cure intensive ai neonati prematuri, la comunità scientifica, i bioeticisti e il diritto tentano di aggirare o di risolvere l’incertezza scientifica e morale. Tali strategie sono accomunate dalla ricerca di criteri morali oggettivi, o almeno intersoggettivi, che consentano ai decisori sostituti di pervenire ad un accordo e di salvaguardare il vero bene del paziente. I criteri esaminati vanno dai dati scientifici riguardanti la prognosi dei prematuri, a “fatti” di natura più strettamente morale come la sofferenza del paziente, il rispetto della libertà di coscienza del medico, l’interesse del neonato a sopravvivere e a vivere bene. Obiettivo: Scopo di questa analisi consiste nel verificare se effettivamente tali strategie riescano a risolvere l’incertezza morale o se invece lascino aperto il dilemma morale delle cure intensive neonatali. In quest’ultimo caso si cercherà di trovare una risposta alla domanda “chi deve decidere per il neonato?” Metodologia e strumenti: Vengono esaminati i più importanti documenti scientifici internazionali riguardanti le raccomandazioni mediche di cura e i pareri della comunità scientifica; gli studi scientifici riguardanti lo stato dell’arte delle conoscenze e degli strumenti terapeutici disponibili ad oggi; i pareri di importanti bioeticisti e gli approcci decisionali più frequentemente proposti ed adoperati; alcuni documenti giuridici internazionali riguardanti la regolamentazione della sperimentazione clinica; alcune pronunce giudiziarie significative riguardanti casi di intervento o astensione dall’intervento medico senza o contro il consenso dei genitori; alcune indagini sulle opinioni dei medici e sulla prassi medica internazionale; le teorie etiche più rilevanti riguardanti i criteri di scelta del legittimo decisore sostituto del neonato e la definizione dei suoi “migliori interessi” da un punto di vista filosofico-morale. Struttura: Nel primo capitolo si ricostruiscono le tappe più importanti della storia delle cure intensive neonatali, con particolare attenzione agli sviluppi dell’assistenza respiratoria negli ultimi decenni. In tal modo vengono messi in luce sia i cambiamenti morali e sociali prodotti dalla meccanizzazione e dalla medicalizzazione dell’assistenza neonatale, sia la continuità della medicina neonatale con il tradizionale paternalismo medico, con i suoi limiti teorici e pratici e con lo sconfinare della pratica terapeutica nella sperimentazione incontrollata. Nel secondo capitolo si sottopongono ad esame critico le prime tre strategie di soluzione dell’incertezza scientifica e morale. La prima consiste nel decidere la “sorte” di un singolo paziente in base ai dati statistici riguardanti la prognosi di tutti i nati in condizioni cliniche analoghe (“approccio statistico”); la seconda, in base alla risposta del singolo paziente alle terapie (“approccio prognostico individualizzato”); la terza, in base all’evoluzione delle condizioni cliniche individuali osservate durante un periodo di trattamento “aggressivo” abbastanza lungo da consentire la raccolta dei dati clinici utili a formulare una prognosi sicura(“approccio del trattamento fino alla certezza”). Viene dedicata una più ampia trattazione alla prima strategia perché l’uso degli studi scientifici per predire la prognosi di ogni nuovo nato accomuna i tre approcci e costituisce la strategia più diffusa ed emblematica di aggiramento dell’incertezza. Essa consiste nella costruzione di un’ “etica basata sull’evidenza”, in analogia alla “medicina basata sull’evidenza”, in quanto ambisce a fondare i doveri morali dei medici e dei genitori solo su fatti verificabili (le prove scientifiche di efficacia delle cure)apparentemente indiscutibili, avalutativi o autocertificativi della moralità delle scelte. Poiché la forza retorica di questa strategia poggia proprio su una (parziale) negazione dell’incertezza dei dati scientifici e sulla presunzione di irrilevanza della pluralità e della complessità dei valori morali nelle decisioni mediche, per metterne in luce i limiti si è scelto di dedicare la maggior parte del secondo capitolo alla discussione dei limiti di validità scientifica degli studi prognostici di cui i medici si avvalgono per predire la prognosi di ogni nuovo nato. Allo stesso scopo, in questo capitolo vengono messe in luce la falsa neutralità morale dei giudizi scientifici di “efficacia”, “prognosi buona”, “prognosi infausta” e di “tollerabilità del rischio” o dei “costi”. Nel terzo capitolo viene affrontata la questione della natura sperimentale delle cure intensive per i neonati prematuri al fine di suggerire un’ulteriore ragione dell’incertezza morale, dell’insostenibilità di obblighi medici di trattamento e della svalutazione dell’istituto del consenso libero e informato dei genitori del neonato. Viene poi documentata l’esistenza di due atteggiamenti opposti manifestati dalla comunità scientifica, dai bioeticisti e dal diritto: da una parte il silenzio sulla natura sperimentale delle terapie e dall’altra l’autocertificazione morale della sperimentazione incontrollata. In seguito si cerca di mostrare come entrambi, sebbene opposti, siano orientati ad occultare l’incertezza e la complessità delle cure ai neonati prematuri, per riaffermare, in tal modo, la precedenza dell’autorità decisionale del medico rispetto a quella dei genitori. Il quarto capitolo, cerca di rispondere alla domanda “chi deve decidere in condizioni di incertezza?”. Viene delineata, perciò, un’altra strategia di risoluzione dell’incertezza: la definizione del miglior interesse (best interest) del neonato, come oggetto, limite e scopo ultimo delle decisioni mediche, qualsiasi esse siano. Viene verificata l’ipotesi che il legittimo decisore ultimo sia colui che conosce meglio di ogni altro i migliori interessi del neonato. Perciò, in questo capitolo vengono esposte e criticate alcune teorie filosofiche sul concetto di “miglior interesse” applicato allo speciale status del neonato. Poiché quest’analisi, rivelando l’inconoscibilità del best interest del neonato, non consente di stabilire con sicurezza chi sia intitolato a prendere la decisione ultima, nell’ultimo capitolo vengono esaminate altre ragioni per le quali i genitori dovrebbero avere l’ultima parola nelle decisioni di fine o di proseguimento della vita. Dopo averle scartate, viene proposta una ragione alternativa che, sebbene non risolutiva, si ritiene abbia il merito di riconoscere e di non mortificare l’irriducibilità dell’incertezza e l’estrema complessità delle scelte morali, senza rischiare, però, la paralisi decisionale, il nichilismo morale e la risoluzione non pacifica dei conflitti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Considerando la figura di Orfeo, si mette in luce la ricezione del mito della morte di questo personaggio leggendario nell’arte simbolista, con particolare attenzione per Gustave Moreau. Il lavoro di ricerca vuole approfondire anche la natura epistemologica e metodologica dello studio della sopravvivenza dei classici, prediligendo i processi di tipo comparatistico e quelli che si rifanno alla grande categoria dei Cultural Studies, intendendo attraversare i confini, le barriere, le frontiere, i limiti delle discipline tradizionalmente intese. Viene cosí presa in considerazione anche l’interazione tra cultura verbale, scritta, letteraria e cultura visuale, sottolineando i meccanismi di transtestualità, nelle loro valenze e potenzialità di ibridazione e contaminazione. Si punta, dunque, non solo sulla superificie tematica specifica ma anche sulla filigrana dei procedimenti di legittimazione scientifica e della prasseologia di questa specifica area filologica transdisciplinare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggetto di lavoro della tesi è un complesso programma di valorizzazione dell’area urbana in sponda nord del Canale Candiano nella città di Ravenna compresa tra le vie Eustacchio Manfredi, Montecatini, delle Industrie e Salona oggi area a destinazione industriale in forte trasformazione. Lo scopo generale del programma è favorire e migliorare la conoscenza e quindi la fruizione del patrimonio marino adriatico e arricchire il contesto urbano esistente all’interno del Programma di Riqualificazione Urbana promosso dal Comune. Per riuscire in questo obiettivo servirà una riprogettazione degli spazi caratteristici in relazione alle potenzialità degli accessi al complesso, uniti con la presenza dei flussi viari che lo attraversano. La forte presenza del Parco del Mausoleo di Teodorico, l’area in testata alla Darsena dove si trova l’area retrostante la Stazione ferroviaria e il potenziamento del dialogo tra il Candiano con la città antica sono gli esempi di maggior interesse che si trovano nell’immediata vicinanza con l’area di progetto. In contemporaneo a questi elementi il programma dovrà ripensare l’intera organizzazione degli accessi in relazione al programma di utilizzo del Canale Candiano come spazio pubblico della città. Ci si pone come obiettivo quello di progettare un’area di forte valenza culturale, che si rapporti e reinterpreti la storicità posseduta dalla città di Ravenna creando non un semplice intervento di Architettura museale, ma bensì un nuovo spazio urbano che non si limiti a se stesso e alle sue funzioni ma che dialoghi liberamente con tutta la città e i sui abitanti. La Darsena della città di Ravenna, come visto, è reduce da molteplici piani urbanistici che si sono sviluppati dagli anni cinquanta fino ad oggi. Questo percorso di pianificazione però ha portato ad un ordinato e consapevole intervento urbanistico, sia dal punto di vista qualitativo che tipologico. Il rispetto della cadenza decennale con cui si sono rinnovati i piani regolatori generali, le tematiche e le innovazioni che il Piano è sempre riuscito ad anticipare hanno prodotto il buon risultato che oggi troviamo nella Darsena.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto è incentrato sulla riqualificazione dell’area occupata dai vecchi stabilimenti dell’Eridania a Forlì risalenti al 1900, ora di proprietà della Cooperativa Muratori di Verucchio. L’area è situata in una zona a Nord del centro storico, adiacente alla linea ferroviaria. Attualmente verte in stato di forte abbandono dal 1973, anno della chiusura dello stabilimento: è la più vasta area dismessa in prossimità del centro storico, una ferita aperta nel cuore della città. Le dimensioni e la vicinanza al centro cittadino costituiscono il maggiore potenziale dell’area che si presta per questo all’introduzione di funzioni di pubblico interesse, spazi per la cultura e lo svago, edifici residenziali e commerciali; inoltre, essendo caratterizzata da una prevalenza di spazi verdi, nasce spontanea l’ipotesi di un nuovo grande parco urbano al servizio della comunità. Oltre al valore dell’area è da sottolineare il pregio architettonico di alcuni degli edifici che possiamo considerare come grandiosi esempi di archeologia industriale. Gli edifici, attualmente, versano in un notevole stato di degrado dovuto all’abbandono dello stabilimento e al grave incendio che nel 1989 ha distrutto i capannoni di deposito, risparmiando però il corpo principale dell’intervento. Nonostante ciò, gli edifici hanno conservato pressoché intatta la loro struttura e, di conseguenza, l’immagine originaria nel suo complesso. È quindi possibile ipotizzarne il mantenimento, una volta effettuati i necessari interventi di consolidamento strutturale e ristrutturazione architettonica. Il progetto di recupero dell’area nasce quindi da un’esigenza concreta e fortemente sentita dalla cittadinanza. Si deve inoltre considerare che, senza un intervento tempestivo, si va incontro all’aggravamento dello stato delle strutture superstiti, fino ad un possibile collasso, rischiando così di perdere definitivamente un prezioso bene del patrimonio architettonico della città. Il dibattito sull’ex Eridania e le sue possibilità di trasformazione si è riacceso negli ultimi anni, soprattutto in seguito all’incendio dell’89. In particolare, il PRG di Forlì del 2003, successivamente adeguato alla legge regionale 20/2000 nel 2007, definisce un nuovo piano di riqualificazione per le aree dismesse e le aree ferroviarie, con nuovi contenuti e procedure d’intervento. Nel 2008 la Cooperativa Muratori di Verucchio, proprietaria dell’area e degli stabilimenti, ha proposto un accordo di programma che prevedeva per il corpo centrale dello zuccherificio la destinazione a caserma delle forze dell’ordine, e per gli spazi circostanti la costruzione di case popolari, di un centro sportivo, di residenze private, edifici per uffici e negozi, oltre al mantenimento di ampie aree verdi. Il progetto non è stato finora realizzato a causa degli alti costi d’intervento per la messa in sicurezza degli edifici preesistenti. Nello steso anno l’associazione Italia Nostra ha proposto l’organizzazione di un concorso di idee per il recupero dell’area, ipotizzando per lo stabilimento principale la trasformazione in un ampio spazio coperto, aperto a diverse e numerose possibilità di destinazione rivolte alla collettività. Gli alti costi di recupero, insieme all’immobilismo amministrativo e ai limiti legati a una burocrazia complessa, e spesso inefficace, hanno finora invalidato qualsiasi tipo d’intervento e, ad oggi, la questione del riutilizzo dello zuccherificio rimane una domanda aperta ancora senza risposta. E’ quindi importante continuare ad interrogarsi sul futuro dell’area progredendo, se non con fatti concreti, con nuove idee e proposte, in attesa che si creino le condizioni necessarie ad intervenire e ridare alla città una parte di sé, arricchita di nuovo valore.