942 resultados para base di Bernstein spazi di Chebyshev Bézier spazi generalizzati a tratti
Resumo:
La presente tesi concerne il trattato "Ottica" scritto da Euclide nel III secolo a.C. quando, nell'area del bacino del Mediterraneo, si verificò una rivoluzione scientifica che diede origine alla nascita della scienza moderna. Si colloca nel filone delle ricerche volte a ricostruire la verità storica ed il contenuto scientifico del pensiero dello scienziato ed a meglio illustrare i contributi dati, dalla scienza ellenistica, alla conoscenza del fenomeno visivo. Si sono presi in esame dunque il momento storico e la situazione economica, sociale e scientifica verificatasi nel III secolo a.C., in particolare ad Alessandria d'Egitto, dove l'incontro del pensiero greco con le culture preesistenti portò alla nascita del metodo scientifico moderno; si sono considerati il pensiero filosofico del tempo e le teorie scientifiche sviluppatesi, con particolare riguardo alla matematica ed alla scienza medica, fondata dal medico alessandrino Erofilo. Si è poi preso in esame il contenuto del trattato. L' "Ottica" è il primo trattato di ottica geometrica della storia e la prima teoria scientifica che si occupi della visione. È basato sul metodo ipotetico-deduttivo, su conoscenze di oftalmologia e sulla scienza matematica degli Elementi. È un modello geometrico di un processo fisiologico e riconferma la matematica quale strumento principe per la costruzione del sapere scientifico. Crea modelli utili per altre teorie scientifiche (ad es. l'astronomia) e per le arti figurative ed ha applicazioni tecnologiche (ad es. l'astrolabio e la diottra). È il testo di base della moderna ottica geometrica. Non si pone come una verità assoluta ma come un'ipotesi di lavoro. Si sono esaminati il difficile percorso storico e bibliografico dell'opera caratterizzato da incomprensioni e manomissioni nonché la ricerca filologica volta a ricostruire l'integrità del testo. Si ritenne infatti che la sua validità fosse inficiata da alcuni "errori", in realtà dovuti all'incomprensione dei concetti e del metodo euclidei ed alle successive manomissioni. Emerge come la scienza non abbia avuto un progresso costante, continuo, aprioristico e come sia incerta ed instabile la conservazione nel tempo del sapere scientifico. Appare inoltre evidente come la scienza sia un prodotto della cultura umana e pertanto come la conoscenza della storia sia una condizione fondante per il progresso scientifico.
Resumo:
Espongo i fatti di base della teoria delle rappresentazioni con lo scopo di indagare i possibili modi in cui un dato gruppo di Lie o algebra di Lie agisce su uno spazio vettoriale di dimensione finita. Tali risultati verranno applicati all'algebra di Lie del gruppo speciale lineare.
Resumo:
CHAPTER 1:FLUID-VISCOUS DAMPERS In this chapter the fluid-viscous dampers are introduced. The first section is focused on the technical characteristics of these devices, their mechanical behavior and the latest evolution of the technology whose they are equipped. In the second section we report the definitions and the guide lines about the design of these devices included in some international codes. In the third section the results of some experimental tests carried out by some authors on the response of these devices to external forces are discussed. On this purpose we report some technical schedules that are usually enclosed to the devices now available on the international market. In the third section we show also some analytic models proposed by various authors, which are able to describe efficiently the physical behavior of the fluid-viscous dampers. In the last section we propose some cases of application of these devices on existing structures and on new-construction structures. We show also some cases in which these devices have been revealed good for aims that lies outside the reduction of seismic actions on the structures. CHAPTER 2:DESIGN METHODS PROPOSED IN LITERATURE In this chapter the more widespread design methods proposed in literature for structures equipped by fluid-viscous dampers are introduced. In the first part the response of sdf systems in the case of harmonic external force is studied, in the last part the response in the case of random external force is discussed. In the first section the equations of motion in the case of an elastic-linear sdf system equipped with a non-linear fluid-viscous damper undergoing a harmonic force are introduced. This differential problem is analytically quite complex and it’s not possible to be solved in a closed form. Therefore some authors have proposed approximate solution methods. The more widespread methods are based on equivalence principles between a non-linear device and an equivalent linear one. Operating in this way it is possible to define an equivalent damping ratio and the problem becomes linear; the solution of the equivalent problem is well-known. In the following section two techniques of linearization, proposed by some authors in literature, are described: the first technique is based on the equivalence of the energy dissipated by the two devices and the second one is based on the equivalence of power consumption. After that we compare these two techniques by studying the response of a sdf system undergoing a harmonic force. By introducing the equivalent damping ratio we can write the equation of motion of the non-linear differential problem in an implicit form, by dividing, as usual, for the mass of the system. In this way, we get a reduction of the number of variables, by introducing the natural frequency of the system. The equation of motion written in this form has two important properties: the response is linear dependent on the amplitude of the external force and the response is dependent on the ratio of the frequency of the external harmonic force and the natural frequency of the system only, and not on their single values. All these considerations, in the last section, are extended to the case of a random external force. CHAPTER 3: DESIGN METHOD PROPOSED In this chapter the theoretical basis of the design method proposed are introduced. The need to propose a new design method for structures equipped with fluid-viscous dampers arises from the observation that the methods reported in literature are always iterative, because the response affects some parameters included in the equation of motion (such as the equivalent damping ratio). In the first section the dimensionless parameterε is introduced. This parameter has been obtained from the definition of equivalent damping ratio. The implicit form of the equation of motion is written by introducing the parameter ε, instead of the equivalent damping ratio. This new implicit equation of motions has not any terms affected by the response, so that once ε is known the response can be evaluated directly. In the second section it is discussed how the parameter ε affects some characteristics of the response: drift, velocity and base shear. All the results described till this point have been obtained by keeping the non-linearity of the behavior of the dampers. In order to get a linear formulation of the problem, that is possible to solve by using the well-known methods of the dynamics of structures, as we did before for the iterative methods by introducing the equivalent damping ratio, it is shown how the equivalent damping ratio can be evaluated from knowing the value of ε. Operating in this way, once the parameter ε is known, it is quite easy to estimate the equivalent damping ratio and to proceed with a classic linear analysis. In the last section it is shown how the parameter ε could be taken as reference for the evaluation of the convenience of using non-linear dampers instead of linear ones on the basis of the type of external force and the characteristics of the system. CHAPTER 4: MULTI-DEGREE OF FREEDOM SYSTEMS In this chapter the design methods of a elastic-linear mdf system equipped with non-linear fluidviscous dampers are introduced. It has already been shown that, in the sdf systems, the response of the structure can be evaluated through the estimation of the equivalent damping ratio (ξsd) assuming the behavior of the structure elastic-linear. We would to mention that some adjusting coefficients, to be applied to the equivalent damping ratio in order to consider the actual behavior of the structure (that is non-linear), have already been proposed in literature; such coefficients are usually expressed in terms of ductility, but their treatment is over the aims of this thesis and we does not go into further. The method usually proposed in literature is based on energy equivalence: even though this procedure has solid theoretical basis, it must necessary include some iterative process, because the expression of the equivalent damping ratio contains a term of the response. This procedure has been introduced primarily by Ramirez, Constantinou et al. in 2000. This procedure is reported in the first section and it is defined “Iterative Method”. Following the guide lines about sdf systems reported in the previous chapters, it is introduced a procedure for the assessment of the parameter ε in the case of mdf systems. Operating in this way the evaluation of the equivalent damping ratio (ξsd) can be done directly without implementing iterative processes. This procedure is defined “Direct Method” and it is reported in the second section. In the third section the two methods are analyzed by studying 4 cases of two moment-resisting steel frames undergoing real accelerogramms: the response of the system calculated by using the two methods is compared with the numerical response obtained from the software called SAP2000-NL, CSI product. In the last section a procedure to create spectra of the equivalent damping ratio, affected by the parameter ε and the natural period of the system for a fixed value of exponent α, starting from the elasticresponse spectra provided by any international code, is introduced.
Resumo:
Premessa: nell’aprile 2006, l’American Heart Association ha approvato la nuova definizione e classificazione delle cardiomiopatie (B. J. Maron e coll. 2006), riconoscendole come un eterogeneo gruppo di malattie associate a disfunzione meccanica e/o elettrica riconducibili ad un ampia variabilità di cause. La distinzione tra le varie forme si basa non più sui processi etiopatogenetici che ne sono alla base, ma sulla modalità di presentazione clinica della malattia. Si distinguono così le forme primarie, a prevalente od esclusivo interessamento cardiaco, dalle forme secondarie in cui la cardiomiopatia rientra nell’ambito di un disordine sistemico dove sono evidenziabili anche disturbi extracardiaci. La nostra attenzione è, nel presente studio, focalizzata sull’analisi delle cardiomiopatie diagnosticate nei primi anni di vita in cui si registra una più alta incidenza di forme secondarie rispetto all’adulto, riservando un particolare riguardo verso quelle forme associate a disordini metabolici. Nello specifico, il nostro obiettivo è quello di sottolineare l’influenza di una diagnosi precoce sull’evoluzione della malattia. Materiali e metodi: abbiamo eseguito uno studio descrittivo in base ad un’analisi retrospettiva di tutti i pazienti giunti all’osservazione del Centro di Cardiologia e Cardiochirurgia Pediatrica e dell’ Età Evolutiva del Policlinico S. Orsola- Malpighi di Bologna, dal 1990 al 2006, con diagnosi di cardiomiopatia riscontrata nei primi due anni di vita. Complessivamente sono stati studiati 40 pazienti di cui 20 con cardiomiopatia ipertrofica, 18 con cardiomiopatia dilatativa e 2 con cardiomiopatia restrittiva con un’età media alla diagnosi di 4,5 mesi (range:0-24 mesi). Per i pazienti descritti a partire dal 2002, 23 in totale, sono state eseguite le seguenti indagini metaboliche: emogasanalisi, dosaggio della carnitina, metabolismo degli acidi grassi liberi (pre e post pasto), aminoacidemia quantitativa (pre e post pasto), acidi organici, mucopolisaccaridi ed oligosaccaridi urinari, acilcarnitine. Gli stessi pazienti sono stati inoltre sottoposti a prelievo bioptico di muscolo scheletrico per l’analisi ultrastrutturale, e per l’analisi dell’attività enzimatica della catena respiratoria mitocondriale. Nella stessa seduta veniva effettuata la biopsia cutanea per l’eventuale valutazione di deficit enzimatici nei fibroblasti. Risultati: l’età media alla diagnosi era di 132 giorni (range: 0-540 giorni) per le cardiomiopatie ipertrofiche, 90 giorni per le dilatative (range: 0-210 giorni) mentre le 2 bambine con cardiomiopatia restrittiva avevano 18 e 24 mesi al momento della diagnosi. Le indagini metaboliche eseguite sui 23 pazienti ci hanno permesso di individuare 5 bambini con malattia metabolica (di cui 2 deficit severi della catena respiratoria mitocondriale, 1 con insufficienza della β- ossidazione per alterazione delle acilcarnitine , 1 con sindrome di Barth e 1 con malattia di Pompe) e un caso di cardiomiopatia dilatativa associata a rachitismo carenziale. Di questi, 4 sono deceduti e uno è stato perduto al follow-up mentre la forma associata a rachitismo ha mostrato un netto miglioramento della funzionalità cardiaca dopo appropriata terapia con vitamina D e calcio. In tutti la malattia era stata diagnosticata entro l’anno di vita. Ciò concorda con gli studi documentati in letteratura che associano le malattie metaboliche ad un esordio precoce e ad una prognosi infausta. Da un punto di vista morfologico, un’evoluzione severa si associava alla forma dilatativa, ed in particolare a quella con aspetto non compaction del ventricolo sinistro, rispetto alla ipertrofica e, tra le ipertrofiche, alle forme con ostruzione all’efflusso ventricolare. Conclusioni: in accordo con quanto riscontrato in letteratura, abbiamo visto come le cardiomiopatie associate a forme secondarie, ed in particolare a disordini metabolici, sono di più frequente riscontro nella prima infanzia rispetto alle età successive e, per questo, l’esordio molto precoce di una cardiomiopatia deve essere sempre sospettata come l’espressione di una malattia sistemica. Abbiamo osservato, inoltre, una stretta correlazione tra l’età del bambino alla diagnosi e l’evoluzione della cardiomiopatia, registrando un peggioramento della prognosi in funzione della precocità della manifestazione clinica. In particolare la diagnosi eseguita in epoca prenatale si associava, nella maggior parte dei casi, ad un’evoluzione severa, comportandosi come una variabile indipendente da altri fattori prognostici. Riteniamo, quindi, opportuno sottoporre tutti i bambini con diagnosi di cardiomiopatia effettuata nei primi anni di vita ad uno screening metabolico completo volto ad individuare quelle forme per le quali sia possibile intraprendere una terapia specifica o, al contrario, escludere disordini che possano controindicare, o meno, l’esecuzione di un trapianto cardiaco qualora se ne presenti la necessità clinica.
Resumo:
The topic of this study is surprise, re gard as an evolutionary complex process, with manifold implication in different fields, from neurological, since aspecific correlate of surprise exist more or less at every level of neuronal processes (e.g. Rao e Ballard, 1999.), to behavioral , inasmuch a s our ability to quickly valuate(assess), recognize and learn from surprising events, are be regarded as pivotal for survival (e.g. Ranganath e Rainer, 2003). In particular this work, going from belief that surprise is really a psychoevolutive mechanism of primary relevance, has the objective to investigate if there may be a substantial connection between development of surprise' emotion and specific developmental problems, or, if in subjects with pervasive developmental disorders surprise may embody (represent) a essential mechanism of emotional tuning, and consequently if abnormalities in such process may be at the base of at least a part of cognitive and behavioural problems that determine (describe) this pathology. Theoretical reasons lead us to conside r this particular pathologic condition, recall to a broad area of research concern the comprehension of belief as marker of ability to reasons about mental states of others (i.e. Theory of Mind), and in addition, at the detection of specific subjects' diff iculty in this field. On the experimental side, as well as limited of this work, we have to compare comprehension and expression of surprise in a sample of 21 children with pervasive developmental disorders (PDD), with a sample of 35 children without deve lopmental problems, in a range of age 3-12. Method After the customary approach to become friendly with the child, an experimenter and an accomplice showed three boxes of nuts, easily to distinguish one from the other because of their different colours an d , working together with the child, the contents of one of the boxes were replaced and a different material (macaroni, pebbles) was put in the box. for the purpose of preparing a surprise for someone. At this stage, the accomplice excused himself/herself and left and the experimenter suggested to the child that he prepare another surprise, replacing the contents in the second box. When the accomplice came back, the child was asked to prepare a surprise for him by picking out the box that he thought was the right one for the purpose. After, and the child doesn't know it, the accomplice change the content of one of the boxes with candies and asked out to the children to open the box, in order to see if he show surprise. Result Date have obtain a significant difference between autistic and normal group, in all four tests. The expression of surprise too, is present in significantly lower degree in autistic group than in control group. Moreover, autistic children do not provide appropriate metarappresentative explanations. Conclusion Our outcome, with knowledge of the limit of our investigation at an experimental level (low number of the champions, no possibility of video registration to firm the expressions ) orient to consider eventuality that surprise, may be seen as relevant component, or indicative, in autistic spectrum disorders.
Resumo:
Il dibattito sullo sviluppo, che caratterizza da anni i principali tavoli di discussione politica a livello internazionale, ha via via richiamato l'attenzione sul “locale” come dimensione ottimale a partire dalla quale implementare politiche volte al miglioramento delle condizioni di vita di molte popolazioni del mondo. L'allargamento a livello globale del già esistente gap tra i “poveri” – vecchi e nuovi – ed i “ricchi” del mondo ha reso la lotta e l'alleviamento della povertà uno degli obiettivi più urgenti dei nostri giorni, ma anche più difficili da raggiungere a livello mondiale. Gran parte della povertà mondiale è povertà rurale, ovvero quella povertà che caratterizza i tanti agricoltori (campesinos) del mondo, che continuano a vivere ai margini della società e ad essere scalzati fuori da ogni possibilità di accesso al mercato per via della mancanza strutturale di risorse nella quale versano. La necessità di sopravvivere, unita all'esigenza di incorporare i veloci cambiamenti imposti dal mondo globalizzato, ha portato nel tempo queste popolazioni a perdere o a contaminare, talvolta irreparabilmente, l' “antico” rapporto con l'ambiente e la natura, fonte di vita e sostentamento, ed anche molti dei propri ancestrali aspetti culturali tradizionali che, paradossalmente, sono stati proprio gli unici elementi dimostratisi in grado di rinsaldare i legami già esistenti all'interno delle comunità e di tenere unite queste fragili realtà di fronte alle continue sfide imposte dal “cambiamento”. E' in questo contesto che si innesta l'esperienza di sviluppo proposta e presentata in questo lavoro; un'esperienza che nasce sulle Ande ecuadoriane, in un villaggio meticcio della Provincia di Bolívar, capoluogo parrocchiale di una più vasta comunità che raggruppa una trentina di villaggi, molti dei quali in toto o in prevalenza di etnia indigena quechua. Un'esperienza, quella di Salinas de Bolívar, che all'interno del panorama ecuadoriano si presenta come un esempio innovativo, coraggioso ed ambizioso di riconquista del protagonismo da parte della popolazione locale, divenendo “emblema” dello sviluppo e “immagine che guida”. Questo, in un paese come l'Ecuador, dove l'assenza di politiche efficaci a supporto del settore agricolo, da un lato, e di politiche sociali efficienti atte a risollevare le precarie condizioni di vita in cui versa la maggior parte della popolazione, soprattutto campesina, dall'altro, rende obbligatorio riflettere sull'importanza e sull'esigenza insieme di restituire spazio e vigore alle compagini della società civile che, come nell'esperienza raccontata, attraverso particolari forme organizzative di tipo socio-economico, come la Cooperazione, sono andate a colmare, seppur solo in parte, i vuoti lasciati dallo Stato dando vita a iniziative alternative rispetto al ventaglio di proposte offerte dai consueti meccanismi di mercato, fortemente escludenti, ma comunque vicine agli attori locali e più rappresentative delle loro istanze, giustificando ed avallando ancora di più la netta separazione oramai riconosciuta tra mera “crescita” e “sviluppo”, dove l'aspetto qualitativo, che va a misurare per l'appunto il benessere e la qualità di vita di una popolazione e del suo ambiente, non deve cioè cedere il passo a quello più strettamente quantitativo, a partire dal quale, se non vi è una equa redistribuzione delle risorse, quasi mai si potranno innescare processi di sviluppo duraturi e sostenibili nel tempo. L'accezione di “alternativo” sta quindi ad indicare, prima di ogni altra cosa, l'implementazione di processi di sviluppo che siano includenti e pertanto accessibili a tutti gli individui, indistintamente, e realmente concretizzabili partendo dalle risorse presenti in loco e nel rispetto di quell'insieme identitario – storico, sociale, culturale, politico, economico ed ambientale – che caratterizza ogni realtà ed ogni specifico contesto sociale ed economico del mondo. Di qui l'importanza di implementare alla base processi di governance che, attraverso la partecipazione di tutti gli attori del territorio si configurino come emanazione delle istanze degli stessi. Nel corso del lavoro si fornirà un breve ma incisivo identikit dell'Ecuador, come fondamentale cornice al caso di studio oggetto di indagine, supportata da una descrizione geografico-ambientale, sociale, culturale, politica ed economica della realtà nella quale esso si sviluppa, tanto a livello nazionale quanto più strettamente regionale. Questo esercizio sarà utile al fine di rendere più visibili e comprensibili i fattori che hanno determinato lo sviluppo e la continuità dell'esperienza dei Salineros nel lungo cammino, iniziato appena trent'anni fa, verso l'autodeterminazione e la riconquista di una libertà di scelta un tempo non lontano negata e successivamente ritrovata, che li ha resi di nuovo protagonisti del proprio presente e in grado di guardare ad un futuro diverso e possibile.
Resumo:
L'oggetto della seguente tesi riguarda la valutazione di impatto ambientale del ciclo di vita di un concentratore solare, mediante l'applicazione della metodologia LCA – Life Cycle Assessment. Il lavoro di tesi presenta una breve introduzione su tematiche ambientali e sociali, quali lo Sviluppo sostenibile e le energie rinnovabili, che conducono verso l'importanza della misurazione del così detto impatto ambientale, e soprattutto dell'aspetto fondamentale di una valutazione di questo tipo, vale a dire l'analisi dell'intero ciclo di vita legato ad un prodotto. Nella tesi viene presentata inizialmente la metodologia utilizzata per la valutazione, la Life Cycle Assessment, descrivendone le caratteristiche, le potenzialità, la normalizzazione in base a regolamenti internazionali ed analizzando una ad una le 4 fasi principali che la caratterizzano: Definizione dell'obiettivo e del campo di applicazione, Analisi di inventario, Valutazione degli impatti e Interpretazione dei risultati. Il secondo capitolo presenta una descrizione dettagliata dello strumento applicativo utilizzato per l'analisi, il SimaPro nella versione 7.1, descrivendone le caratteristiche principali, l'interfaccia utente, le modalità di inserimento dei dati, le varie rappresentazioni possibili dei risultati ottenuti. Sono descritti inoltre i principali database di cui è fornito il software, che contengono una moltitudine di dati necessari per l'analisi di inventario, ed i così detti metodi utilizzati per la valutazione, che vengono adoperati per “focalizzare” la valutazione su determinate categorie di impatto ambientale. Il terzo capitolo fornisce una descrizione dell'impianto oggetto della valutazione, il CHEAPSE, un concentratore solare ad inseguimento per la produzione di energia elettrica e termica. La descrizione viene focalizzata sui componenti valutati per questa analisi, che sono la Base e la struttura di sostegno, il Pannello parabolico in materiale plastico per convogliare i raggi solari ed il Fuoco composto da celle fotovoltaiche. Dopo aver analizzato i materiali ed i processi di lavorazione necessari, vengono descritte le caratteristiche tecniche, le possibili applicazioni ed i vantaggi del sistema. Il quarto ed ultimo capitolo riguarda la descrizione dell'analisi LCA applicata al concentratore solare. In base alle varie fasi dell'analisi, vengono descritti i vari passaggi effettuati, dalla valutazione e studio del progetto al reperimento ed inserimento dei dati, passando per la costruzione del modello rappresentativo all'interno del software. Vengono presentati i risultati ottenuti, sia quelli relativi alla valutazione di impatto ambientale dell'assemblaggio del concentratore e del suo intero ciclo di vita, considerando anche lo scenario di fine vita, sia i risultati relativi ad analisi comparative per valutare, dal punto di vista ambientale, modifiche progettuali e processuali. Per esempio, sono state comparate due modalità di assemblaggio, tramite saldatura e tramite bulloni, con una preferenza dal punto di vista ambientale per la seconda ipotesi, ed è stato confrontato l'impatto relativo all'utilizzo di celle in silicio policristallino e celle in silicio monocristallino, la cui conclusione è stata che l'impatto delle celle in silicio policristallino risulta essere minore. Queste analisi comparative sono state possibili grazie alle caratteristiche di adattabilità del modello realizzato in SimaPro, ottenute sfruttando le potenzialità del software, come l'utilizzo di dati “parametrizzati”, che ha permesso la creazione di un modello intuitivo e flessibile che può essere facilmente adoperato, per ottenere valutazioni su scenari differenti, anche da analisti “alle prime armi”.
Resumo:
La presente tesi tratta delle analisi di sicurezza delle intersezioni sia esistenti, sia di nuova progettazione. Nel primo capitolo vengono definite le intersezioni secondo il D.M. 19-04-06 âNorme funzionali e geometriche per la costruzione delle intersezioni stradaliâ. Sono descritte le manovre possibili, le problematiche ed i punti di conflitto che si vengono a creare durante lâattraversamento, definendo le varie tipologie. Successivamente si affronta una classificazione tipologica delle intersezioni rappresentando per mezzo di una matrice simbolica tutti i possibili nodi. Questi vengono suddivisi in base alla possibilità di connessione. Ampio spazio è dato alla descrizione dellâintersezione a raso dove vengono esaminate le caratteristiche geometriche tra cui le configurazioni delle corsie e le tipologie di isole divisionali. Vengono esaminate le particolarità dellâintersezione semaforizzata definendo il ciclo semaforico e gli elementi che lo compongono, la fasatura, il livello di servizio (LOS), il ritardo, definendo gli elementi che lo compongono per mezzo di formule empiriche. Nella seconda parte del capitolo viene descritta lâintersezione a rotatoria in base al D.M. 19-04-06. Inizialmente si introduce lâargomento con nozioni storiche a carattere informativo, quindi si da una classificazione generale degli elementi che la caratterizzano. Viene descritta lâisola divisionale spiegandone la tipologia costruttiva e rappresentando i parametri di classificazione geometrica. A titolo di esempio sono state inserite varie rappresentazioni di rotatorie suddivise per tipologie costruttive. Nellâultima parte viene affrontato lâelemento rotatoria definendo la distanza di visibilità e i criteri per il calcolo della capacità . Il secondo capitolo parla delle analisi di sicurezza delle intersezioni. Inizialmente viene descritta la circolare 3699 âLinee guida per le analisi di sicurezza delle stradeâ definendo il concetto di analisi di sicurezza ed esaminando le differenze tra le due tipologie di analisi: Road safety review e Road safety audit. In seguito si descrivono gli obbiettivi dellâanalisi di sicurezza, vantaggi e svantaggi e la valutazione dellâapproccio concettuale. Viene descritta più approfonditamente la tipologia del Road safety review evidenziando lâutilità , gli elementi che la caratterizzano, le figure professionali che prendono parte a queste analisi con le azioni che devono seguire. Dopo si analizzano i criteri per affrontare gli studi sulla sicurezza e le fasi per le procedure di analisi. Si procede con la descrizione di una tipologia di ispezione, analizzando le problematiche e la stesura del rapporto di analisi con la descrizione dei tempi di attuazione. Nella parte centrale del capitolo viene descritta la direttiva del parlamento europeo e del consiglio sulla gestione della sicurezza delle infrastrutture stradali con i relativi obbiettivi che si prefigge. Vengono riportati i 13 articoli che si compone con i relativi 4 allegati inerenti a: - Valutazione di impatto sulla sicurezza; - Audit della sicurezza stradale; - Gestione dei tratti stradali ad alto rischio, gestione della sicurezza della rete e ispezione di sicurezza; - Dati che devono figurare nelle relazioni di incidenti. Lâultimo argomento preso in esame riguarda le norme per gli interventi di adeguamento delle strade esistenti. Vengono descritte le categorie di intervento e gli obbiettivi da raggiungere distinguendoli in obbiettivi prestazionali, di funzionalità operativa e sicurezza della circolazione. Vengono affrontate le caratteristiche e le differenze tra interventi strutturali e non strutturali con i relativi obbiettivi valutando gli effetti che si ottengono dallâadeguamento delle strade. Successivamente vengono descritte le campagne di monitoraggio con le relative procedure e tempistiche. Infine si valutano le responsabilità degli interventi. Nel capitolo 3 viene descritta lâanalisi dello stato di fatto. Si è proceduto con la classificazione della infrastruttura descrivendo i tratti di strada interessati dallâintervento ed utilizzando delle foto per individuare alcune problematiche emerse nellâintersezione. Utilizzando lâelaborato âazzonamento del territorio comunale di Carpiâ è stata descritta la zona oggetto di studio. Poi con la macroclassificazione del territorio con scala 1:10000 viene mostrato graficamente il territorio urbanizzato, in corso di urbanizzazione e a destinazione urbana. Lâultimo elaborato preso in esame riguarda la classificazione acustica del territorio. Infine si è proceduto con lâanalisi del traffico e di incidentalità . Utilizzando i dati rilevati dalla polizia municipale del comune di Carpi sono stati costruiti i grafici e studiati gli andamenti nel periodo di tempo di riferimento dal 2000 al 2008. Utilizzando poi i dati dei flussi di traffico si sono analizzati le tipologie e i volumi di traffico nellâintersezione. Nellâultimo capitolo viene studiato il Road safety review dellâintersezione. Si procede con una descrizione generale dellâintersezione, e si prosegue poi con lâindividuazione delle problematiche lungo il tracciato. Inizialmente sono state scattate numerose foto nella zona interessata poi sono state divise per tipologia di problema. Per ogni problema si è cercato una soluzione descrivendo e motivando la scelta. Nelle conclusioni si sono descritti i risultati ottenuti nellâanalisi di sicurezza elencando le principali raccomandazioni emerse dallâanalisi.
Resumo:
La città di Ferrara può essere considerata un unicum che emerge rispetto ad altre realtà urbane, pur dotate di loro peculiarità storiche e morfologiche. La base per la formazione di questa unicità, fu gettata dagli Este, e da Biagio Rossetti, che, con l'addizione erculea, raddoppiarono la superficie della città medioevale. L'addizione, fu realizzata per una previsione di aumento della popolazione,che mai si concretizzò, se non, in parte, nel corso dell'ultimo secolo. Ciò, si tradusse in una notevole stabilità del rapporto pieni/vuoti, all'interno della città: vuoti che divennero spazi verdi urbani, e pieni che, nonostante le ristrutturazioni divenute necessarie nel corso dei secoli, mantennero prevalentemente le volumetrie e i sedimi storici. Infatti, il verde degli orti e dei giardini del tessuto storico, costituisce un sistema inscindibile con il costruito, e ne caratterizza la forma urbana dall'interno. Nel corso del Novecento, il centro storico, subì notevoli cambiamenti, anche se gli interventi riguardarono prevalentemente i vuoti urbani, mantenendo quasi intatto l'esistente. L'immobilismo dei secoli passati, ha mantenuto Ferrara una città a misura d'uomo, non tormentata dal caotico traffico automobilistico delle città attuali;per le sue peculiarità, storiche e morfologiche, Ferrara fu dichiarata "Patrimonio dell'Umanità" dall'Unesco, ponendo fine ad eventuali modifiche del centro storico, che avrebbero potuto intaccarne i caratteri. L'area della quale ci occupiamo, nonostante si trovi all'interno del tessuto medioevale consolidato, ha subito delle importanti trasformazioni nel secolo scorso; il duecentesco Convento agostiniano di San Vito, che occupava gran parte dell'isolato, assieme ai giardini di Palazzo Schifanoia, fu demolito per far posto ad una nuova caserma; probabilmente perché il convento stesso, dopo le conquiste napoleoniche e con vicende alterne, era già adibito a tale funzione. La nuova caserma mal si inserisce nel tessuto urbano, poiché rappresenta un "fuori scala", un evidente distacco dal rapporto verde/costruito della città medioevale circostante. Fin dalle analisi dei primi piani regolatori del secondo dopoguerra, la caserma fu considerata un elemento incongruo con il tessuto esistente, prevedendone quindi la possibilità di demolizione; dagli anni '90, inoltre, l'area militare è inutilizzata, e oggigiorno, versa in una condizione di avanzato degrado superficiale. L'area di progetto, ha una grande importanza storica, poiché rappresentava il terzo polo estense di amministrazione del potere, dopo il Castello Estense, e l'area del Palazzo dei Diamanti. I palazzi estensi che caratterizzavano l'area in epoca rinascimentale, Palazzo Schifanoia, Palazzo Bonacossi e Palazzina Marfisa d'Este, sono sopravissuti, anche se profondamente cambiati in particolar modo negli spazi verdi. Il progetto che ci proponiamo di realizzare, vuole stabilire, un nuovo rapporto tra pieni e vuoti, basandoci sulla lettura della città storica, delle sue tipologie e peculiarità. Impostando il progetto sulla realizzazione concreta del Polo dei Musei Civici di Arte Antica di Ferrara, oggi esistente solo a livello burocratico e amministrativo, ridefiniamo una parte di città, attribuendole quella centralità nel tessuto storico, che già la caratterizzava in passato.
Resumo:
La città di Ferrara può essere considerata un unicum che emerge rispetto ad altre realtà urbane, pur dotate di loro peculiarità storiche e morfologiche. La base per la formazione di questa unicità, fu gettata dagli Este, e da Biagio Rossetti, che, con l'addizione erculea, raddoppiarono la superficie della città medioevale. L'addizione, fu realizzata per una previsione di aumento della popolazione,che mai si concretizzò, se non, in parte, nel corso dell'ultimo secolo. Ciò, si tradusse in una notevole stabilità del rapporto pieni/vuoti, all'interno della città: vuoti che divennero spazi verdi urbani, e pieni che, nonostante le ristrutturazioni divenute necessarie nel corso dei secoli, mantennero prevalentemente le volumetrie e i sedimi storici. Infatti, il verde degli orti e dei giardini del tessuto storico, costituisce un sistema inscindibile con il costruito, e ne caratterizza la forma urbana dall'interno. Nel corso del Novecento, il centro storico, subì notevoli cambiamenti, anche se gli interventi riguardarono prevalentemente i vuoti urbani, mantenendo quasi intatto l'esistente. L'immobilismo dei secoli passati, ha mantenuto Ferrara una città a misura d'uomo, non tormentata dal caotico traffico automobilistico delle città attuali; per le sue peculiarità, storiche e morfologiche, Ferrara fu dichiarata "Patrimonio dell'Umanità" dall'Unesco, ponendo fine ad eventuali modifiche del centro storico, che avrebbero potuto intaccarne i caratteri. L'area della quale ci occupiamo, nonostante si trovi all'interno del tessuto medioevale consolidato, ha subito delle importanti trasformazioni nel secolo scorso; il duecentesco Convento agostiniano di San Vito, che occupava gran parte dell'isolato, assieme ai giardini di Palazzo Schifanoia, fu demolito per far posto ad una nuova caserma; probabilmente perché il convento stesso, dopo le conquiste napoleoniche e con vicende alterne, era già adibito a tale funzione. La nuova caserma mal si inserisce nel tessuto urbano, poiché rappresenta un "fuori scala", un evidente distacco dal rapporto verde/costruito della città medioevale circostante. Fin dalle analisi dei primi piani regolatori del secondo dopoguerra, la caserma fu considerata un elemento incongruo con il tessuto esistente, prevedendone quindi la possibilità di demolizione; dagli anni '90, inoltre, l'area militare è inutilizzata, e oggigiorno, versa in una condizione di avanzato degrado superficiale. L'area di progetto, ha una grande importanza storica, poiché rappresentava il terzo polo estense di amministrazione del potere, dopo il Castello Estense, e l'area del Palazzo dei Diamanti. I palazzi estensi che caratterizzavano l'area in epoca rinascimentale, Palazzo Schifanoia, Palazzo Bonacossi e Palazzina Marfisa d'Este, sono sopravissuti, anche se profondamente cambiati in particolar modo negli spazi verdi. Il progetto che ci proponiamo di realizzare, vuole stabilire, un nuovo rapporto tra pieni e vuoti, basandoci sulla lettura della città storica, delle sue tipologie e peculiarità. Impostando il progetto sulla realizzazione concreta del Polo dei Musei Civici di Arte Antica di Ferrara, oggi esistente solo a livello burocratico e amministrativo, ridefiniamo una parte di città, attribuendole quella centralità nel tessuto storico, che già la caratterizzava in passato.
Resumo:
Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.
Resumo:
“Il museo sta cambiando. In passato, era un luogo di certezze assolute, fonte di definizioni, di valori e di dottrina in materia d'arte, a tutto campo; era il luogo in cui non ci si ponevano interrogativi ma si davano autorevoli risposte.[...]“ 1 Il collezionismo d'arte comincia con il Rinascimento italiano, che sviluppa un particolare senso della storia, un entusiasmo per i prodotti dell'Antichità classica e per tutti i generi dell'arte contemporanea, pensati per la residenza privata, e in realtà, per esse fabbricati: dipinti di soggetto mitologico, quadri di artisti fiamminghi, piccoli bronzi e, al nord arte grafica. Il collezionismo in senso stretto fu agli inizi del secolo connesso solo con le antichità. Verso la fine del Cinquecento, vanno manifestandosi parecchie innovazioni. Per la prima volta compare la parola museo, che era già stata adottata in Alessandria durante il periodo Ellenistico per designare tutto l'ambito degli edifici per la cultura in cui era compresa la biblioteca. Inizialmente tutte le collezioni erano private, ma potevano essere visitate dalle élite sociali. L‟istituzione del museo che noi oggi conosciamo, nasce dall‟ Europa illuminista del XVIII secolo: infatti in questo periodo fu deliberatamente progettato uno spazio architettonico appropriato che desse forma universalmente riconoscibile all‟idea di museo. Poniamo gli esempi del Museo di Villa Albani nel 1746 e il Museo Pio Clementino in Vaticano nel 1775, che per primi si pongono il problema della progettazione architettonica, dell‟allestimento e ordinamento adeguati a un museo aperto al pubblico. Mentre per Villa Albani si trattava pur sempre di una raccolta privata visitabile, il museo voluto dai papi Clemente XIV e Pio VI per le collezioni archeologiche era già pensato come un‟istituzione di interesse pubblico. Gli ultimi tre secoli del secondo millennio hanno visto la crescita dell‟istituzione del museo, diventata esponenziale negli ultimi decenni del XX secolo. I tempi hanno coinciso con la nascita, l‟affermazione rivoluzionaria, il trionfo e il consolidamento della cultura nell‟età della borghesia. 2 “Mentre prima il museo non era che un luogo pieno di oggetti, oggi è diventato un luogo pieno di idee, che vengono suggerite dalle indicazioni e dalle descrizioni accompagnanti gli oggetti esposti, dato che il museo è come un libro aperto che si offre allo studioso e a chi desidera formarsi una coltura.[...]3 1 Karsten Schubert, Museo. Storia di un'idea - dalla Rivoluzione francese ad oggi, il Saggiatore, Milano 2004, p.17. 2 Alessandra Mottola Molfino, Il libro dei musei, Umberto Alemandi & C., Torino 1991, pp. 11-22 3 Daniele Donghi, Manuale dell'architetto Volume II, Unione Tipografico Editrice Torinese, Torino 1935, p. 11. 8 Un museo non è definito solo in base all'importanza e alla qualità delle sue raccolte, ma soprattutto da come vengono recepite da chi le esamina, sia per motivi di studio che per interesse personale. Per questo motivo si deve mettere in grado le diverse categorie di fruitori, di accedere al museo con il minor spreco di tempo possibile e con il maggior profitto. L'effetto che si vuole ottenere deriva sia dal metodo di esposizione degli oggetti, sia da una buona soluzione tecnica relativa alle dimensioni, alla forma, alla distribuzione, riscaldamento e ventilazione dei locali, all'illuminazione degli oggetti e ai mezzi di loro conservazione e sicurezza. Il museo moderno dovrà coniugare al suo interno museografia e museologia. Dove“[...]per museografia si intende l'insieme delle azioni progettuali, scientifiche e tecniche, tendenti alla sistemazione organizzativa del museo (distributiva, impiantistica, tecnica, architettonica, allestitiva, informatica); appartiene in genere all'opera dell'architetto, con la collaborazione di strutturisti, impiantisti e informatici. Al contrario per museologia si intende l'insieme delle azioni di ricerca storica, filologica, di comparazione critica che presiede all'ordinamento dell'esposizione delle opere; generalmente appartiene allo storico dell'arte, allo storico della scienza, all'archeologo, all'antropologo [...].”4 Confrontando progetti museografici e museali dei primi musei con esempi moderni e contemporanei, si intendono ricavare i caratteri fondamentali che permettano di presentare un progetto per museo coerente all'area di studio, e che riesca a rivelare la vera natura degli oggetti che andrà a ospitare attraverso uno studio specifico dei percorsi e degli allestimenti.
Resumo:
Nel tentativo di rispondere alle esigenze valutate in seguito all’analisi del centro storico in base a differenti profili investigativi, si è formulato un programma di intervento con obiettivi e strategie codificate. In modo particolare viene privilegiata l’indagine effettuata a livello sociale sulla popolazione del centro storico, ambito di ricerca necessario per una buona premessa per un progetto che ha come oggetto l’abitare. Da queste considerazioni nasce l’idea del progetto dove il tema della residenza si inserisce in un contesto urbano in stretta relazione con il tessuto storico della città di Forlì. L’individuazione dell’area di progetto, situata in una posizione di confine tra due realtà differenti, il centro storico e la circonvallazione che lo racchiude, suggerisce la necessità di stabilire attraverso collegamenti perdonali e ciclabili fra l’area in esame e la periferia esterna una configurazione dinamica, dove il vuoto urbano che si presenta è lo scenario ideale per ristabilire una porta moderna alla città, ricomponendo la leggibilità tra la sfera naturale e quella insediativa. Alla scala urbana l’obiettivo è quello di stabilire il ruolo di centralità dell’area, nel suo insieme, restituendo ai fatti urbani della città le funzioni di interesse pubblico generale. La zona oggetto di discussione è un nodo urbano in cui coesistono manufatti di pregio architettonico e storico come quello della Filanda in oggetto e dell’Ex Complesso conventuale della Ripa, in grado di essere potenziali contenitori di funzioni pubbliche di alto livello, e aree verdi da riqualificare, con forte propensione all’uso pubblico, come gli Orti di via Curte. Sotto questo profilo deve essere valutata anche la tematica del rapporto con l’architettura antica, tenendo in considerazione l’effetto di impatto che i nuovi interventi avranno sull’esistente. È dunque il sito di progetto che detta le metodologie di approccio legate alla necessità di un intervento sostenibile e non invasivo. Partendo da queste considerazioni si sviluppano le tematiche legate alla flessibilità e alle sue coniugazioni. La società contemporanea che ci impone ogni giorno modelli di vita sempre nuovi e la necessità di movimento e trasformazione, ci mette di fronte più che mai al bisogno di progettare spazi non rigidi, ma aperti alle molteplici possibilità d’uso e ai cambiamenti nel tempo. La flessibilità viene dunque concepita in relazione ai concetti di complessità e sostenibilità. Se da una parte è necessario riconoscere la molteplicità dei modi d’uso con i quali l’oggetto dovrà confrontarsi ed assumere il carattere aleatorio di qualsiasi previsione relativa ai modelli di comportamento dell’utenza, dall’altra occorre cogliere all’interno del progetto della residenza flessibile la possibilità di pervenire a un costruire capace di riconfigurarsi di volta in volta, adattandosi alle differenti condizioni d’uso, senza dover procedere a drastiche modifiche che impongono la dismissione di materiali e componenti. Il sistema della stratificazione a secco può essere quello che attualmente meglio risponde, per qualità ed economicità, ai concetti della biologia dell’abitare e della casa intelligente, nozioni che acquisiscono sempre più importanza all’interno di una nuova concezione della progettazione. Si sceglie dunque di riportare la Filanda, quanto possibile, alla riconfigurazione originaria, prima che la corte interna fosse completamente saturata di depositi e magazzini come ci si presenta oggi e di concepire una nuova configurazione di quello che diventa un isolato urbano integrato nel tessuto storico, e nodo strutturante per un’area più vasta. Lavorando sulla residenza occorre mettere in primo piano il protagonista dell’architettura che si va a progettare: l’uomo. Per questo la scala urbana e la dimensione umana devono essere concepite parallelamente e la progettazione della cellula di base che si struttura secondo le modalità premesse di flessibilità e sostenibilità si sovrappone all’obiettivo di individuare all’interno del vuoto urbano, una nuova densità, dove il dialogo tra pubblico e privato sia il presupposto per lo sviluppo di un piano integrato e dinamico.
Resumo:
Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.