985 resultados para polarimetric SAR


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fin dai primi approcci alla città dell'Aquila, quando ancora non la conoscevamo e attraverso libri e articoli in rete cercavamo di capire la sua storia e la sua identità, abbiamo riconosciuto chiaramente quanto fosse importante la sua università. Le testimonianze precedenti il sisma parlavano di una città universitaria con quasi 30000 iscritti in continua crescita, viva e attiva, una città giovane; quelle posteriori il 6 aprile 2009 invece erano le richieste di aiuto da parte di docenti e fuorisede che si rifiutavano di abbandonare quello che per loro era diventato un importante punto di riferimento per la loro vita e la loro formazione. Forse anche perchè noi stesse studentesse, abbiamo fin da subito sentito il dovere di occuparci di questo angoscioso problema, da un lato per essere solidali verso i nostri sfortunati colleghi, dall'altro per non permettere un ulteriore abbandono dell'ateneo aquilano da parte di altri studenti. Lo slogan apparso sui cartelloni di alcuni studenti aquilani durante una manifestazione fatta per sensibilizzare la popolazione sulla loro situazione palesa il loro attaccamento alla città e la loro volontà di continuare a farne parte e partecipare alla sua ricostruzione: "Noi siamo il cuore de L'Aquila". L’Università dell’Aquila vuole tornare nel centro storico. A confermare questa volontà, più volte espressa, c’è l’acquisizione della vecchia struttura dell’ospedale San Salvatore nei pressi della Fontana Luminosa, dove verrà realizzato il nuovo polo umanistico. La nuova sede di Lettere e filosofia, situata nella parte più nuova dell’ex complesso ospedaliero sarà aperta per il prossimo anno accademico e nell'ultima porzione di struttura acquistata si insedierà anche la facoltà di Scienze della formazione. “L’Università deve tornare nel centro storico - ha affermato il rettore Ferdinando di Orio nella conferenza stampa di presentazione dell’iniziativa - perché deve tornare a rappresentare ciò che L’Aquila è, ovvero una città universitaria”. Da qui un percorso di studio che partendo dalla storia della città e della sua università ci ha portato fino alla scelta dell'area, secondo noi la più adatta ad ospitare servizi per gli studenti universitari e permettere un tempestivo approccio al problema. Un'area che si è rivelata piena di potenzialità e per noi possibile punto di riferimento per la rinascita del centro storico aquilano. Dagli studi preliminari svolti è infatti emerso che l'area di progetto è attualmente poco sfruttata benchè la sua posizione sia assolutamente favorevole. Importante è per esempio la vicinanza alla stazione ferroviaria, usata da studenti fuori sede soprattutto della conca aquilana, professori e ospiti che devono raggiungere la città. Il piazzale della stazione ferroviaria, assieme alla via XX Settembre sono poi importanti fermate del servizio urbano ed extraurbano pubblico che collegano l'area con l'università, l'ospedale, e l'autostazione di Collemaggio. Altrettanto rilevante è parsa la prossimità dell'area al centro storico ed il fatto che si presenti agibile nella quasi sua totalità il che permette di poter pensare ad un intervento di ricostruzione tempestivo. Oltre alle mura storiche, la zona di progetto si trova nelle immediate vicinanze di altre due importanti emergenze: la Fontana delle 99 cannelle, uno dei più importanti e più significativi monumenti dell’Aquila e l'edificio dell'ex-mattatoio, struttura di archeologia industriale nella quale il Comune ha scelto di localizzare temporaneamente il Museo Nazionale d'Abruzzo. Attraverso la realizzazione di questo importante spazio espositivo insieme con il restauro della Fontana delle novantanove Cannelle e della Porta Rivera a cura del FAI, sarà possibile ripristinare un polo di attrazione culturale e monumentale. L’operazione assume inoltre un valore simbolico, poiché viene effettuato in un luogo di primaria importanza, legato all’origine stessa della città, che farà da battistrada per la riappropriazione del centro storico. Noi ci affianchiamo quindi a questo importante intervento e alle ultime direttive segnalate dal Comune e dall'Ateneo che dimostrano la loro volontà di riappropriarsi del centro storico, localizzando nell'area i servizi che dopo il sisma risultano necessari affinché gli studenti possano continuare i loro studi nella città e andando a potenziare il sistema museale già presente per creare un importante polo didattico e culturale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’area oggetto dell’ipotesi progettuale è la Suraj Kund, Cisterna del Sole, sita nella città di Varanasi, nello stato dell’Uttar Pradesh, India. E’ proprio per via delle innumerevoli differenze che ci sono tra l’Occidente e l’India, siano esse culturali, religiose, storiche e conseguentemente architettoniche, che chiunque visiti questo particolare Stato del mondo, viene sopraffatto dalla sua incredibile complessità culturale. “Punto di incontro ed origine dei più diversi popoli e delle più diverse culture, l’India si riallaccia a tradizioni millenarie. L’India riesce ad accogliere gli influssi stranieri esercitati nel tempo trasfigurandoli, senza tuttavia intaccare la propria identità culturale. L’India seduce il visitatore occidentale per la coesistenza di diversi popoli, lingue e religioni.” [8] Dall’analisi del sito sono stati individuate una serie di problematiche e criticità la cui risoluzione,conseguentemente allo studio delle architetture d’acqua indiane e dagli elementi caratteristici dell’architettura di Varanasi, sarà punto di partenza in fase progettuale. Insieme al ripristino funzionale dell'area saranno progettati un ostello per l’accoglienza dei pellegrini, una scuola d’artigianato e due blocchi abitativi di differente tipologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Magnetic resonance imaging (MRI) is today precluded to patients bearing active implantable medical devices AIMDs). The great advantages related to this diagnostic modality, together with the increasing number of people benefiting from implantable devices, in particular pacemakers(PM)and carioverter/defibrillators (ICD), is prompting the scientific community the study the possibility to extend MRI also to implanted patients. The MRI induced specific absorption rate (SAR) and the consequent heating of biological tissues is one of the major concerns that makes patients bearing metallic structures contraindicated for MRI scans. To date, both in-vivo and in-vitro studies have demonstrated the potentially dangerous temperature increase caused by the radiofrequency (RF) field generated during MRI procedures in the tissues surrounding thin metallic implants. On the other side, the technical evolution of MRI scanners and of AIMDs together with published data on the lack of adverse events have reopened the interest in this field and suggest that, under given conditions, MRI can be safely performed also in implanted patients. With a better understanding of the hazards of performing MRI scans on implanted patients as well as the development of MRI safe devices, we may soon enter an era where the ability of this imaging modality may be more widely used to assist in the appropriate diagnosis of patients with devices. In this study both experimental measures and numerical analysis were performed. Aim of the study is to systematically investigate the effects of the MRI RF filed on implantable devices and to identify the elements that play a major role in the induced heating. Furthermore, we aimed at developing a realistic numerical model able to simulate the interactions between an RF coil for MRI and biological tissues implanted with a PM, and to predict the induced SAR as a function of the particular path of the PM lead. The methods developed and validated during the PhD program led to the design of an experimental framework for the accurate measure of PM lead heating induced by MRI systems. In addition, numerical models based on Finite-Differences Time-Domain (FDTD) simulations were validated to obtain a general tool for investigating the large number of parameters and factors involved in this complex phenomenon. The results obtained demonstrated that the MRI induced heating on metallic implants is a real risk that represents a contraindication in extending MRI scans also to patient bearing a PM, an ICD, or other thin metallic objects. On the other side, both experimental data and numerical results show that, under particular conditions, MRI procedures might be consider reasonably safe also for an implanted patient. The complexity and the large number of variables involved, make difficult to define a unique set of such conditions: when the benefits of a MRI investigation cannot be obtained using other imaging techniques, the possibility to perform the scan should not be immediately excluded, but some considerations are always needed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel lavoro di tesi qui presentato si indaga l'applicazione di tecniche di apprendimento mirate ad una più efficiente esecuzione di un portfolio di risolutore di vincoli (constraint solver). Un constraint solver è un programma che dato in input un problema di vincoli, elabora una soluzione mediante l'utilizzo di svariate tecniche. I problemi di vincoli sono altamente presenti nella vita reale. Esempi come l'organizzazione dei viaggi dei treni oppure la programmazione degli equipaggi di una compagnia aerea, sono tutti problemi di vincoli. Un problema di vincoli è formalizzato da un problema di soddisfacimento di vincoli(CSP). Un CSP è descritto da un insieme di variabili che possono assumere valori appartenenti ad uno specico dominio ed un insieme di vincoli che mettono in relazione variabili e valori assumibili da esse. Una tecnica per ottimizzare la risoluzione di tali problemi è quella suggerita da un approccio a portfolio. Tale tecnica, usata anche in am- biti come quelli economici, prevede la combinazione di più solver i quali assieme possono generare risultati migliori di un approccio a singolo solver. In questo lavoro ci preoccupiamo di creare una nuova tecnica che combina un portfolio di constraint solver con tecniche di machine learning. Il machine learning è un campo di intelligenza articiale che si pone l'obiettivo di immettere nelle macchine una sorta di `intelligenza'. Un esempio applicativo potrebbe essere quello di valutare i casi passati di un problema ed usarli in futuro per fare scelte. Tale processo è riscontrato anche a livello cognitivo umano. Nello specico, vogliamo ragionare in termini di classicazione. Una classicazione corrisponde ad assegnare ad un insieme di caratteristiche in input, un valore discreto in output, come vero o falso se una mail è classicata come spam o meno. La fase di apprendimento sarà svolta utilizzando una parte di CPHydra, un portfolio di constraint solver sviluppato presso la University College of Cork (UCC). Di tale algoritmo a portfolio verranno utilizzate solamente le caratteristiche usate per descrivere determinati aspetti di un CSP rispetto ad un altro; queste caratteristiche vengono altresì dette features. Creeremo quindi una serie di classicatori basati sullo specifico comportamento dei solver. La combinazione di tali classicatori con l'approccio a portfolio sara nalizzata allo scopo di valutare che le feature di CPHydra siano buone e che i classicatori basati su tali feature siano affidabili. Per giusticare il primo risultato, eettueremo un confronto con uno dei migliori portfolio allo stato dell'arte, SATzilla. Una volta stabilita la bontà delle features utilizzate per le classicazioni, andremo a risolvere i problemi simulando uno scheduler. Tali simulazioni testeranno diverse regole costruite con classicatori precedentemente introdotti. Prima agiremo su uno scenario ad un processore e successivamente ci espanderemo ad uno scenario multi processore. In questi esperimenti andremo a vericare che, le prestazioni ottenute tramite l'applicazione delle regole create appositamente sui classicatori, abbiano risultati migliori rispetto ad un'esecuzione limitata all'utilizzo del migliore solver del portfolio. I lavoro di tesi è stato svolto in collaborazione con il centro di ricerca 4C presso University College Cork. Su questo lavoro è stato elaborato e sottomesso un articolo scientico alla International Joint Conference of Articial Intelligence (IJCAI) 2011. Al momento della consegna della tesi non siamo ancora stati informati dell'accettazione di tale articolo. Comunque, le risposte dei revisori hanno indicato che tale metodo presentato risulta interessante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nonostante la riforma societaria ed i tentativi di rilanciare l’economia nazionale, ancora oggi la principale fonte di ricchezza e di capitalizzazione resta l’investimento immobiliare. Ed ecco perchè si sente sempre più parlare di “Real Estate”, ovvero dei diritti reali sui beni immobili, della loro circolazione, e delle garanzie e tutele ad essa correlate. Dalla vendita immobiliare tipizzata nel codice civile del ’42 ad oggi molto è cambiato. E il mio lavoro parte proprio da un’analisi delle nuove forme e dei nuovi limiti alla circolazione degli immobili. In primis ho affrontato il tema del riconoscimento giurisprudenziale della cessione di cubatura: un esempio tipico del passaggio dal fatto al diritto attraverso la costruzione giurisprudenziale di nuove fattispecie giuridiche già in uso fra gli operatori del mercato. Tecnicamente la stessa espressione “cessione di cubatura” non risulta corretta: non si ha una vera e propria cessione, quanto la costituzione di una servitù ius non edificandi a favore di un terreno e a carico di un altro. La giurisprudenza è ormai concorde nello stabilire che l’accordo delle parti rimane comunque privo di efficacia se ad esso non segue un permesso di costruire della Pubblica Amministrazione che riconosca la maggiore capacità edificatoria al terreno a cui vantaggio è stabilità la servitù. Un’altra nuova forma di circolazione della proprietà, così come degli altri diritti reali minori, è la multiproprietà. La multiproprietà viene disciplinata nel nostro ordinamento, a seguito di una risoluzione del Parlamento Europeo del 13 ottobre 1988, dapprima con il D.lgs. 9 novembre 1998 e da ultimo con il Codice del Consumo, che con gli artt. 69 ss. stabilisce una più puntuale tutela degli acquirenti. Si riconosce qui l’esistenza di uno squilibrio fra le posizioni contrattuali fra venditore ed acquirente/consumatore: vi è una profonda asimmetria informativa fra le parti, che viene colmata prevedendo la consegna al futuro acquirente di un dettagliato prospetto informativo predisposto dal venditore. La mia attenzione si è concentrata proprio sul tema delle tutele che il nostro ordinamento riconosce al consumatore multiproprietario: un prospetto informativo dal contenuto minimo legislativamente predeterminato, recesso, fideiussione. Ho dedicato un particolare approfondimento alla normativa sull’acquisto immobiliare sulla carta. Il D.lgs. 122/2005 si inserisce nel contesto di una legislazione, che spesso trova la sua origine nel diritto privato europeo, finalizzata alla regolamentazione di un fenomeno sempre più frequente nella realtà economica contemporanea, rappresentato dalla contrattazione fra soggetti che si trovano in una posizione di squilibrio contrattuale: un “contraente forte” da una parte, ed un “contraente debole” dall’altra. La legislazione nazionale interviene sempre più frequentemente per porre un rimedio a queste situazioni di squilibrio, con interventi di tipo conformativo intesi a rendere effettiva l’autonoma contrattuale delle parti e, conseguentemente, agevolare il corretto funzionamento del mercato. Si parla in tal senso di una ius espansiva del modello europeo di legislazione a tutela del contraente debole, e quindi di una espansione del diritto privato europeo anche in settori dove manca una puntuale normativa comunitaria. Vi è una generale tendenza ad un “neoformalismo”, che consiste nella richiesta espressa della forma scritta e nella conformazione del contenuto del contratto, che solo apparentemente limitano l’autonomia contrattuale delle parti ma che tende ad eliminare le situazioni di squilibrio dando una tutela effettiva al contraente debole. Contraente debole e non “consumatore”. L’art. 1 del decreto parla, infatti, espressamente di “persona fisica”. Secondo gli orientamenti dottrinali maggioritari dalla nuova disciplina resterebbero esclusi, e quindi non rientrerebbero nella definizione di “acquirenti”, le società, le persone giuridiche e gli enti collettivi in generale. Si riconosce la figura del “professionista debole”, giacché si riconosce che l’acquisto di un immobile da costruire sia un’operazione che, in virtù della sua importanza economica, viene gestita con maggiore avvedutezza: l’acquisto di un immobile non è propriamente “atto di consumo”in senso tecnico. L’esigenza di tutela è diversa: si vuole tutelare l’acquirente in considerazione dell’intrinseca rischiosità dell’operazione, stabilendo alcuni profili fondamentali del contenuto del contratto non solo e non tanto a fini informativi, quanto piuttosto per una “tutela sostanziale” dell’acquirente. Il legislatore si preoccupa di predisporre garanzie obbligatorie per il caso di dissesto dell’impresa costruttrice. Le garanzie, quindi, come forma di tutela del contraente debole. Il mio lavoro si concentra, a questo punto, sulle garanzie personali e reali. Poche le novità sulle garanzie, ma alcune significative. Nel campo delle garanzie personali, acquista maggiore rilevanza la fideiussione prestata dal contraente forte a favore del contraente debole, affinché quest’ultimo possa recuperare tutte le somme investite per l’acquisto dell’immobile: sia esso un immobile in multiproprietà, sia esso un immobile ancora da costruire. E ancora le garanzie reali: pegno e ipoteca. Ho posto particolare attenzione al tema della "portabilità" dei mutui e surrogazione ex art. 1202 c.c. ed al tema delle formalità ipotecarie così come previsti dagli artt. 6, 7 e 8 della l. 2 aprile 2007, n. 40 sulla concorrenza. Ma la mia attenzione si è soffermata soprattutto sul tema della nullità ed in particolare sulla nullità relativa. La più recente legislazione speciale, specie quella di derivazione europea, ha dato un grosso scossone alla dogmatica tradizionale della nullità negoziale. Le fattispecie di nullità relativa sono sempre più frequenti, tanto da far parlare di una nuova categoria di nullità c.d. “nullità di protezione”. Quest’ultima risponde ad esigenze profondamente differenti dalla nullità assoluta di stampo codicistico. In luogo della nullità, sembra oggi più corretto parlare delle nullità: diverse categorie di invalidità, ciascuna delle quali soddisfa interessi diversificati, e come tale riceve anche una disciplina differenziata in termini di legittimazione all’azione, rilevabilità d’ufficio, prescrittibilità, sanabilità, opponibilità ai terzi. Ancora una volta partendo da un’analisi critica del D.lgs. 122/2005, ho avuto modo di approfondire il fondamentale tema della nullità nel nostro ordinamento. L’art. 2 del decreto stabilisce espressamente la nullità relativa, e cioè azionabile dal solo acquirente parte debole del contratto, nel caso in cui non sia rilasciata dal venditore la fideiussione. L’art. 6 stabilisce, invece, un contenuto minimo del contratto poste a tutela della parte debole e del corretto funzionamento del mercato immobiliare. Se ad alcune di esse può attribuirsi un valore meramente ordinatorio, altre al contrario rivestono una natura di norme imperative di ordine pubblico attinenti più precisamente al c.d. ordine pubblico di protezione ed al c.d. ordine pubblico di direzione. Nel sistema del nostro codice, la violazione di norma imperative dà luogo, ex art. 1418, alla nullità del contatto salvo che la legge stabilisca diversamente. E’quindi configurabile una nullità virtuale del contratto, ovvero non espressamente e letteralmente stabilita, ma che può essere desunta dal tenore imperativo delle norme. La dottrina prevalente è ormai orientata nel senso di ammettere che anche la nullità relativa possa essere virtuale, nel quadro di un orientamento, ormai dominante, volto al superamento dell’approccio tendente a far rientrare nell’eccezionalità qualsiasi difformità dal modello classico della nullità. Il problema, quindi, si sposta all’individuazione della natura imperativa della norma violata. In linea generale si afferma che perché una norma possa essere definita imperativa debba porre un comando o un divieto espresso, debba essere inderogabile ed indisponibile. Oggetto di dibattiti dottrinali è, poi, il tema della rilevabilità d’ufficio delle nullità relative. A fronte di una prima posizione dottrinale tendente ad escludere tale rilevabilità d’ufficio sul presupposto di una sua inconciliabilità con il regime di legittimazione relativa all’azione di nullità, dottrina e giurisprudenza più recenti appaiono concordi nel ritenere assolutamente conciliabili tali due profili. Si concorda, inoltre, sull’esistenza di limitazioni alla rilevabilità d’ufficio della nullità: la nullità può essere rilevata d’ufficio dal giudice, ma tale rilievo deve operare nell’esclusivo interesse del contraente debole, dovendo il giudice bloccarsi davanti ad un concreto interesse della parte a mantenere in vita il contratto. Discorso a sé stante deve poi esser fatto sul rapporto fra nullità relativa e nullità virtuale e responsabilità del notaio rogante. Secondo l’orientamento dominante della giurisprudenza, nella misura in cui vi sia una violazione di norme imperative, e l’imperatività sia evidente, manifesta, dal tenore delle disposizioni, deve ritenersi che la nullità, sia testuale che virtuale, comporti la responsabilità del notaio ai sensi dell’art. 28 l. not. Ogni qualvolta, viceversa, tale nullità non si configuri, la responsabilità disciplinare sarà esclusa. Si avverte, comunque, una prima apertura verso la sanzionabilità delle nullità relative che siano manifeste. In chiusura del mio lavoro non ho potuto non tenere conto della recente crisi dei mercati internazionali. Crisi che ha avuto inizio proprio con il crollo negli Stati Uniti dei settori immobiliare e finanziario, improntati verso una eccessiva deregolamentazione e valorizzazione dell’autonomia contrattuale delle parti. L’assenza di garanzie sicure e la carenza di controllo di un professionista corrispondente al nostro notaio pubblico ufficiale, ha portato ad investimenti e finanziamenti azzardati da parte delle banche e degli istituti di credito che stanno vivendo un momento di profonda crisi aprendo la strada ad una recessione economica di portata mondiale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel presente elaborato viene riassunta in 4 brevi capitoli la mia attività di tesi, svolta nell’ambito del progetto Formula SAE® dell’Università di Bologna nell’anno 2010. Il progetto ha consistito nella realizzazione di una vettura monoposto, con l’obiettivo di far competere la stessa negli eventi previsti dalla SAE® (Society of Automotive Engineer), insieme alle vetture progettate e costruite da altri atenei di tutto il mondo. In tali eventi, una serie di giudici del settore auto-motive valuta la bontà del progetto, ovvero della vettura, che sarà sottoposta ad una serie di prove statiche e dinamiche. Nella seguente trattazione si narra quindi il percorso progettuale e di realizzazione del telaio della vettura, ovvero della sua struttura portante principale. Il progetto infatti, nell’ambito del team UniBo Motorsport, mi ha visto impegnato come “Responsabile Telaio” oltre che come “Responsabile in Pista” durante le prove su strada della vettura, svolte a valle della realizzazione. L’obbiettivo principale di un telaio di vettura da corsa è quello di realizzare una struttura che colleghi rigidamente tra loro i gruppi sospensivi anteriore e posteriore e che preveda anche la possibilità di ancorare tutti i componenti dei sistemi ausiliari di cui la vettura deve essere equipaggiata. Esistono varie tipologie di telai per autovettura ma quelle più adatte ad equipaggiare una vettura da competizione di tipo Formula, sono sicuramente il traliccio in tubi (“space frame”) e la monoscocca in fibra di carbonio. Il primo è sicuramente quello più diffuso nell’ambito della Formula Student grazie alla sua maggior semplicità progettuale e realizzativa ed ai minor investimenti economici che richiede. I parametri fondamentali che caratterizzano un telaio vettura da competizione sono sicuramente la massa e la rigidezza. La massa dello chassis deve essere ovviamente il più bassa possibile in quanto quest, costituisce generalmente il terzo contributo più importante dopo pilota e motore alla massa complessiva del veicolo. Quest’ultimo deve essere il più leggero possibile per avere un guidabilità ed una performance migliori nelle prove dinamiche in cui dovrà impegnarsi. Per quanto riguarda la rigidezza di un telaio, essa può essere distinta in rigidezza flessionale e rigidezza torsionale: di fatto però, solo la rigidezza torsionale va ad influire sui carichi che si trasferiscono agli pneumatici della vettura, pertanto quando si parla di rigidezza di un telaio, ci si riferisce alla sua capacità di sopportare carichi di tipo torsionale. Stabilire a priori un valore adeguato per la rigidezza torsionale di un telaio è impossibile. Tale valore dipende infatti dal tipo di vettura e dal suo impiego. In una vettura di tipo Formula quale quella oggetto del progetto, la rigidezza torsionale del telaio deve essere tale da garantire un corretto lavoro delle sospensioni: gli unici cedimenti elastici causati dalle sollecitazioni dinamiche della vettura devono essere quelli dovuti agli elementi sospensivi (ammortizzatori). In base a questo, come indicazione di massima, si può dire che un valore di rigidezza adeguato per un telaio deve essere un multiplo della rigidezza totale a rollio delle sospensioni. Essendo questo per l’Università di Bologna il primo progetto nell’ambito della Formula SAE® e non avendo quindi a disposizione nessun feed-back da studi o vetture di anni precedenti, per collocare in modo adeguato il pilota all’interno della vettura, in ottemperanza anche con i requisiti di sicurezza dettati dal regolamento, si è deciso insieme all’esperto di ergonomia del team di realizzare una maquette fisica in scala reale dell’abitacolo. Questo ha portato all’individuazione della corretta posizione del pilota e al corretto collocamento dei comandi, con l’obbiettivo di massimizzare la visibilità ed il confort di guida della vettura. Con questo primo studio quindi è stata intrapresa la fase progettuale vera e propria del telaio, la quale si è svolta in modo parallelo ma trasversale a quella di tutti gli altri sistemi principali ed ausiliari di cui è equipaggiata la vettura. In questa fase fortemente iterativa si vanno a cercare non le soluzioni migliori ma quelle “meno peggio”: la coperta è sempre troppo corta e il compromesso la fa da padrone. Terminata questa fase si è passati a quella realizzativa che ha avuto luogo presso l’azienda modenese Marchesi & C. che fin dal 1965 si è occupata della realizzazione di telai da corsa per importanti aziende del settore automobilistico. Grazie al preziosissimo supporto dell’azienda, a valle della realizzazione, è stato possibile condurre una prova di rigidezza sul telaio completo della vettura. Questa, oltre a fornire il valore di rigidezza dello chassis, ha permesso di identificare le sezioni della struttura più cedevoli, fornendo una valida base di partenza per l’ottimizzazione di telai per vetture future. La vettura del team UniBo Motorsport ha visto il suo esordio nell’evento italiano della Formula SAE® tenutosi nel circuito di Varano de Melegari nella prima settimana di settembre, chiudendo con un ottimo 16esimo posto su un totale di 55 partecipanti. Il team ha partecipato inoltre alla Formula Student Spain tenutasi sul famoso circuito di Montmelò alla fine dello stesso mese, raggiungendo addirittura il podio con il secondo posto tra i 18 partecipanti. La stagione si chiude quindi con due soli eventi all’attivo della vettura, ma con un notevole esordio ed un ottimo secondo posto assoluto. L’ateneo di Bologna si inserisce al sessantasettesimo posto nella classifica mondiale, come seconda università italiana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mia tesi dal titolo ”Applicazione della tecnica PSinSAR™ allo studio di fenomeni franosi lenti: casi di studio in Emilia-Romagna” ha avuto come obiettivo quello di mostrare le potenzialità e i limiti della tecnica PSinSAR nel monitoraggio di fenomeni franosi localizzati in Val Marecchia. Ho svolto, nel capitolo due, un’analisi preliminare dell’area di studio andando a evidenziare prima le caratteristiche climatiche, piogge medie annue e le temperature minime e massime, e a seguire sono passato a descrivere l’inquadramento geologico e geomorfologico. L’area della Val Marecchia è, da questo punto di vista, molto particolare poggiando su quella che è definita dagli autori “coltre della Val Marecchia”; essa è un complesso alloctono sovrascorso ai terreni autoctoni della successione Umbro – Romagnola - Marchigiana. La traslazione verso Est della coltre avvenne per "scatti", in funzione delle principali fasi tettoniche appenniniche, separati da momenti di pausa in cui sedimentarono le formazioni più recenti le quali poi si spostarono in modo solidale con la coltre. La coltre, infatti, è costituita da un insieme di formazioni di età diverse e in particolare ritroviamo, partendo da quella più antica l’unità ligure, l’unità subligure e infine l’unità epiligure. La presenza di formazioni più recenti sopra ad altre più antiche rende unica la morfologia della vallata con enormi blocchi rocciosi poggianti su un substrato in genere argilloso come nell’esempio più famoso della rupe di San Leo. Da queste analisi è emersa un’altra caratteristica peculiare della valle cioè la forte tendenza a essere interessata da dissesti di varie tipologie. Gli indici di franosità mostrano che nella zona alta della vallata circa il 50% del territorio è interessato da dissesti, valore che decresce leggermente nella parte media e bassa della valle. Il motivo di tale instabilità è da imputare in parte alla forte erosione che avviene sulle placche epiliguri e in parte alle caratteristiche scadenti del substrato che è per lo più composto di argille e arenarie. Per quanto riguarda le tipologie di frane in Val Marecchia la situazione è molto eterogenea; in particolari le tre tipologie più frequenti sono il colamento lento, lo scivolamento rotazionale/traslativo e le frane di tipo complesso. Nel terzo capitolo ho descritto la tecnica PSinSAR; essa si basa sull’elaborazione di scene riprese da satellite per giungere alla formazione di una rete di punti, i PS, di cui conosciamo i movimenti nel tempo. I Permanent Scatterer (PS) sono dei bersagli radar individuati sulla superficie terrestre dal sensori satellitari caratterizzati per il fatto di possedere un’elevata stabilità nel tempo alla risposta elettromagnetica. I PS nella maggior parte dei casi corrispondono a manufatti presenti sulla superficie quali edifici, monumenti, strade, antenne e tralicci oppure ad elementi naturali come per esempio rocce esposte o accumuli di detrito. Lo spostamento viene calcolato lungo la linea di vista del satellite, per cui il dato in uscita non mostra lo spostamento effettivo del terreno, ma l'allontanamento o l'avvicinamento del punto rispetto al satellite. La misure sono sempre differenziali, ovvero sono riferite spazialmente a un punto noto a terra chiamato reference point, mentre temporalmente alla data di acquisizione della prima immagine. La tecnica PSinSAR proprio per la sua natura è "cieca" rispetto ai movimenti in direzione Nord-Sud. Le scene utilizzate per la creazione dei dataset di PS derivano quasi interamente dai satelliti ERS e ENVISAT. Tuttora sono disponibili anche le scene dei satelliti TerraSAR-X, RADARSAT e Cosmo Skymed. I sensori utilizzati in questo ambito sono i SAR (Synthetic Aperture Radar) che sono sensori attivi, cioè emettono loro stessi l'energia necessaria per investigare la superficie terrestre al contrario dei sensori ottici. Questo permette di poter acquisire scene anche di notte e in condizioni di cielo nuvoloso. La tecnica PSinSAR presenta molti vantaggi rispetto alle tecniche interferometriche tradizionali essa, infatti, è immune agli errori di decorrelamento temporale e spaziale oltre agli errori atmosferici, che portavano ad avere precisioni non inferiori a qualche cm, mentre ora l’errore di misura sulla velocità media di spostamento si attesta in genere sui 2 mm. La precisione che si ha nella georeferenziazione dei punti è in genere di circa 4-7 m lungo la direzione Est e circa 1-2 m in quella Nord. L’evoluzione di PSinSAR, SqueeSAR, permette un numero maggiore di punti poiché oltre ai Permanent Scatterers PS, tramite un apposito algoritmo, calcola anche i Distribuited Scatterer DS. I dataset di dati PS che ho utilizzato nel mio lavoro di tesi (PSinSAR) derivano, come detto in precedenza, sia da scene riprese dal satellite ERS che da ENVISAT nelle due modalità ascendenti e discendenti; nel primo caso si hanno informazioni sui movimenti avvenuti tra il 1992 e il 2000 mentre per l’ENVISAT tra il 2002 e il 2008. La presenza di dati PS nelle due modalità di ripresa sulla stessa zona permette tramite alcuni calcoli di ricavare la direzione effettiva di spostamento. È importante però sottolineare che, a seconda della modalità di ripresa, alcune aree possono risultare in ombra, per questo nell’analisi dei vari casi di studio non sempre sono stati utilizzabili tutti i dataset. Per l'analisi dei vari casi di studio, presentati nel capitolo 4, ho utilizzato diverso materiale cartografico. In particolare mi sono servito delle Carte Tecniche Regionali (CTR) a scala 1:10000 e 1:5000, in formato digitale, come base cartografica. Sempre in formato digitale ho utilizzato anche le carte geologiche e geomorfologiche dell'area della Val Marecchia (fogli 266, 267, 278) oltre, per finire, agli shapefile presi dal database online del Piano stralcio dell’Assetto Idrogeologico PAI. Il software usato per la realizzazione del lavoro di tesi è stato ArcGIS di proprietà di ESRI. Per ogni caso di studio ho per prima cosa effettuato un'analisi dal punto di vista geologico e geomorfologico, in modo da fare un quadro delle formazioni presenti oltre ad eventuali fenomeni franosi mostrati dalle carte. A seguire ho svolto un confronto fra il dato PS, e quindi i valori di spostamento, e la perimetrazione mostrata nel PAI. Per alcuni casi di studio il dato PS ha mostrato movimenti in aree già perimetrate nel PAI come "in dissesto", mentre in altri il dato satellitare ha permesso di venire a conoscenza di fenomeni non conosciuti (come ad esempio nel caso di Monte Gregorio). Per ogni caso di studio ho inoltre scelto alcuni PS caratteristici (solitamente quelli a coerenza maggiore) e ho ricavato la relativa serie storica. In questo modo è stato possibile verificare lo spostamento durante tutti gli anni in cui sono state prese le scene (dal 1992 al 2000 per dati ERS, dal 2002 al 2008 per dati ENVISAT) potendo quindi mettere in luce accelerazioni o assestamenti dei fenomeni nel tempo, oltre a escludere la presenza di trend di spostamento anomali imputabili nella maggior parte dei casi a errori nel dato. L’obiettivo della tesi è stato da una parte di verificare la bontà del dato PS nell’interpretazione dei movimenti dovuti a dissesti franosi e dall’altra di fare un confronto tra il dato di spostamento ricavato dai PS e i vari inventari o carte di piano. Da questo confronto sono emerse informazioni molti interessanti perché è stato possibile avere conferme di movimento su dissesti già conosciuti (Sant’Agata Feltria, San Leo e altri) ma anche di venire a conoscenza di fenomeni non conosciuti (Monte Gregorio). In conclusione è emerso dal mio lavoro che il monitoraggio tramite tecnica PSinSAR necessita di essere integrato con le tecniche tradizionali poiché presenta alcune limitazioni importanti come l’impossibilità di "vedere" movimenti veloci o lungo la direzione Nord-Sud, oltre ad avere dati in aree vegetate o scarsamente abitate. I vantaggi sono però notevoli potendo monitorare con un’unica ripresa vaste porzioni di territorio oltre ad avere serie storiche consistenti, in grado di evidenziare i movimenti avvenuti nel passato. Tale tecnica quindi, secondo il mio parere, può essere utilizzata come supporto alla stesura di cartografia di fenomeni franosi fornendo informazioni aggiuntive rispetto alle varie tecniche tradizionali come il GPS, sondaggi geotecnici e sondaggi inclinometrici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro presentato si propone di fornire un contributo all'implementazione di indagini finalizzate a misurare l'evoluzione delle intenzioni d'acquisto del consumatore italiano nei confronti degli OGM, data anche l'impossibilità  al momento di avere indicazioni e dati sul comportamento (vista la quasi totale assenza dei prodotti OGM nella distribuzione, se si eccettuano i prodotti d'allevamento di animali alimentati con OGM per cui non è previsto nessun obbligo di etichettatura). Le coltivazioni transgeniche (Organismi Geneticamente Modificati) si stanno diffondendo abbastanza rapidamente nel contesto mondiale, dal 1996, primo anno in cui sono uscite dalla fase sperimentale, ad oggi. Nel 2008 la superficie globale delle colture biotech è stata di 125 milioni di ettari, circa il 9% in più rispetto ai 114 milioni del 2007, mentre il numero dei Paesi che hanno adottato varietà  GM è giunto a 25. Di questi sono soprattutto Usa, Canada, Argentina, Brasile, Cina e India a trainare la crescita; le colture più diffuse sono soia, mais, cotone e colza, prodotti destinati principalmente al segmento feed e al segmento no-food e solo in minima parte al segmento food (cioè all'alimentazione diretta umana). Molte più resistenze ha incontrato tale sviluppo nei Paesi dell'Unione europea. A tutt'oggi le coltivazioni GM hanno raggiunto estensioni significative solamente in Spagna, con alcune decine di migliaia di ettari di mais GM. Mais che peraltro è l'unica produzione per cui è stata autorizzata una varietà  GM alla coltivazione. Si intuisce in sostanza come in Europa si sia assunto un atteggiamento molto più prudente verso l'utilizzo su larga scala di tale innovazione scientifica, rispetto a quanto accaduto nei grandi Paesi citati in precedenza. Una prudenza dettata dal serrato dibattito, tuttora in corso, tra possibilisti e contrari, con contrapposizioni anche radicali, al limite dell'ideologia. D'altro canto, le indagini di Eurobarometro hanno messo in luce un miglioramento negli ultimi anni nella percezione dei cittadini europei verso le biotecnologie: dopo aver raggiunto un livello minimo di fiducia nel 1999, si è manifestata una lenta risalita verso i livelli di inizio anni '90, con percentuali di "fiduciosi" intorno al 55-60% sul totale della popolazione. Tuttavia, sebbene sulle biotecnologie in genere (l'Eurobarometro individua quattro filoni: alimenti contenenti OGM, terapie geniche, nanotecnologie e farmaci contenenti OGM), il giudizio sia abbastanza positivo, sugli alimenti permane un certo scetticismo legato soprattutto a considerazioni di inutilità  della tecnologia, di rischio percepito e di accettabilità morale: per citare il caso italiano, che, contrariamente a quello che si potrebbe pensare, è tra i più elevati nel contesto europeo, solamente un cittadino su tre valuta positivamente gli alimenti contenenti OGM. Se si analizza, inoltre, il sentiment del settore agricolo, nel quale il tema riveste anche un'importanza di natura economico-produttiva, in quanto incidente sui comportamenti e sulla strategie aziendali, sembra emergere un'apertura significativamente più elevata, se non una vera e propria frattura rispetto all'opinione pubblica. Infatti, circa due maiscoltori lombardi su tre (Demoskopea, 2008), cioè la tipologia di agricoltori che potrebbe beneficiare di tale innovazione, coltiverebbero mais GM se la normativa lo consentisse. Ebbene, in tale contesto diventa d'estremo interesse, sebbene di non facile praticabilità , lo studio e l'implementazione di modelli volti a monitorare le componenti che concorrono a formare l'intenzione e, in ultima analisi, il comportamento, dei consumatori verso gli OGM. Un esercizio da attuare per lo più tramite una serie di misurazioni indirette che devono fermarsi necessariamente all'intenzione nel caso italiano, mentre in altri Paesi che hanno avuto legislazioni più favorevoli all'introduzione degli OGM stessi nella produzione food può perseguire approcci d'analisi field, focalizzati non solo sull'intenzione, ma anche sul legame tra intenzione ed effettivo comportamento. Esiste una vasta letteratura che studia l'intenzione del consumatore verso l'acquisto di determinati beni. Uno degli approcci teorici che negli ultimi anni ha avuto più seguito è stato quello della Teoria del Comportamento Pianificato (Ajzen, 1991). Tale teoria prevede che l'atteggiamento (cioè l'insieme delle convinzioni, credenze, opinioni del soggetto), la norma soggettiva (cioè l'influenza dell'opinione delle persone importanti per l'individuo) e il controllo comportamentale percepito (ovvero la capacità , auto-percepita dal soggetto, di riuscire a compiere un determinato comportamento, in presenza di un'intenzione di ugual segno) siano variabili sufficienti a spiegare l'intenzione del consumatore. Tuttavia, vari ricercatori hanno e stanno cercando di verificare la correlazione di altre variabili: per esempio la norma morale, l'esperienza, l'attitudine al rischio, le caratteristiche socio-demografiche, la cosiddetta self-identity, la conoscenza razionale, la fiducia nelle fonti d'informazione e via discorrendo. In tale lavoro si è cercato, quindi, di esplorare, in un'indagine "pilota" quali-quantitativa su un campione ragionato e non probabilistico, l'influenza sull'intenzione d'acquisto di prodotti alimentari contenenti OGM delle variabili tipiche della Teoria del Comportamento Pianificato e di alcune altre variabili, che, nel caso degli OGM, appaiono particolarmente rilevanti, cioè conoscenza, fiducia nelle fonti d'informazione ed elementi socio-demografici. Tra i principali risultati da porre come indicazioni di lavoro per successive analisi su campioni rappresentativi sono emersi: - La conoscenza, soprattutto se tecnica, sembra un fattore, relativamente al campione ragionato analizzato, che conduce ad una maggiore accettazione degli OGM; le stesse statistiche descrittive mettono in luce una netta differenza in termini di intenzione d'acquisto dei prodotti contenenti OGM da parte del sub-campione più preparato sull'argomento; - L'esplorazione della fiducia nelle fonti d'informazione è sicuramente da approfondire ulteriormente. Dall'indagine effettuata risulta come l'unica fonte che influenza con le sue informazioni la decisione d'acquisto sugli OGM è la filiera agroalimentare. Dato che tali attori si caratterizzano per lo più con indicazioni contrarie all'introduzione degli OGM nei loro processi produttivi, è chiaro che se il consumatore dichiara di avere fiducia in loro, sarà  anche portato a non acquistare gli OGM; - Per quanto riguarda le variabili della Teoria del Comportamento Pianificato, l'atteggiamento mette in luce una netta preponderanza nella spiegazione dell'intenzione rispetto alla norma soggettiva e al controllo comportamentale percepito. Al contrario, queste ultime appaiono variabili deboli, forse perchè a tutt'oggi la possibilità  concreta di acquistare OGM è praticamente ridotta a zero ; - Tra le variabili socio-demografiche, l'influenza positiva del titolo di studio sulla decisione d'acquisto sembra confermare almeno in parte quanto emerso rispetto alla variabile "conoscenza"; - Infine, il fatto che il livello di reddito non influisca sull'intenzione d'acquisto appare abbastanza scontato, se si pensa, ancora una volta, come a tutt'oggi gli OGM non siano presenti sugli scaffali. Il consumatore non ha al momento nessuna idea sul loro prezzo. Decisamente interessante sarà  indagare l'incidenza di tale variabile quando il "fattore OGM" sarà  prezzato, presumibilmente al ribasso rispetto ai prodotti non OGM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cosa e’ stato fatto e il fine della ricerca in questi tre anni si è esaminato il materiale edito sui sarcofagi del periodo in esame, sui culti funerari, i problemi religiosi ed artistici. Per trovare confronti validi si sono resi necessari alcuni viaggi sia in Italia che all’estero. Lo scopo della ricerca è stato quello di “leggere” i messaggi insiti nelle figurazioni delle casse dei sarcofagi, per comprendere meglio la scelta dei committenti verso determinati temi e la ricezione di questi ultimi da parte del pubblico. La tomba, infatti, è l’ultima traccia che l’uomo lascia di sé ed è quindi importante cercare di determinare l’impatto psicologico del monumento funerario sul proprietario, che spesso lo acquistava quando ancora era in vita, e sui familiari in visita alla tomba durante la celebrazione dei riti per i defunti. Nell’ultimo anno, infine, si è provveduto a scrivere la tesi suddivindendo i capitoli e i pezzi in base all’argomento delle figurazioni (mitologici, di virtù, etc.). I capitoli introduttivi Nel primo capitolo di introduzione si è cercato di dare un affresco per sommi capi del periodo storico in esame da Caracalla a Teodosio e della Chiesa di III e IV secolo, mettendo in luce la profonda crisi che gravava sull’Impero e le varie correnti che frammentavano il cristianesimo. In particolare alcune dispute, come quella riguardante i lapsi, sarà alla base di ipotesi interpretative riguardanti la raffigurazione del rifiuto dei tre giovani Ebrei davanti a Nabuchodonosor. Nel capitolo seguente vengono esaminati i riti funerari e il ruolo dei sarcofagi in tali contesti, evidenziando le diverse situazioni emotive degli osservatori dei pezzi e, quindi, l’importanza dei temi trattati nelle casse. I capitolo Questo capitolo tratta dei sarcofagi mitologici. Dopo una breve introduzione, dove viene spiegata l’entrata in uso dei pezzi in questione, si passa alla discussione dei temi, suddivisi in paragrafi. La prima classe di materiali è qualla con la “caduta di Fetonte” la cui interpretazione sembra chiara: una tragedia familiare. Il compianto sul corpo di un ragazzo morto anzi tempo, al quale partecipa tutto il cosmo. L’afflizione dei familiari è immane e sembra priva di una possibile consolazione. L’unico richiamo a riprendere a vivere è solo quello del dovere (Mercurio che richiama Helios ai propri impegni). La seconda classe è data dalle scene di rapimento divino visto come consolazione e speranza in un aldilà felice, come quelle di Proserpina e Ila. Nella trasposizione della storia di Ila è interessante anche notare il fatto che le ninfe rapitrici del giovane – defunto abbiano le sembianze delle parenti già morte e di un fanciullo, probabilmente la madre, la nonna e un fratello deceduto anzi tempo. La terza classe presenta il tema del distacco e dell’esaltazione delle virtù del defunto nelle vesti dei cacciatori mitici Mealeagro, Ippolito e Adone tutti giovani, forti e coraggiosi. In questi sarcofagi ancor più che negli altri il motivo della giovinezza negata a causa della morte è fondamentale per sottolineare ancora di più la disperazione e il dolore dei genitori rimasti in vita. Nella seguente categoria le virtù del defunto sono ancora il tema dominante, ma in chiave diversa: in questo caso l’eroe è Ercole, intento ad affrontare le sue fatiche. L’interpretazione è la virtù del defunto che lo ha portato a vincere tutte le difficoltà incontrate durante la propria vita, come dimostrerebbe anche l’immagine del semidio rappresentato in età diverse da un’impresa all’altra. Vi è poi la categoria del sonno e della morte, con i miti di Endimione, Arianna e Rea Silvia, analizzato anche sotto un punto di vista psicologico di aiuto per il superamento del dolore per la perdita di un figlio, un marito, o, ancora, della sposa. Accanto ai sarcofagi con immagini di carattere narrativo, vi sono numerosi rilievi con personaggi mitici, che non raccontano una storia, ma si limitano a descrivere situazioni e stati d’animo di felicità. Tali figurazioni si possono dividere in due grandi gruppi: quelle con cortei marini e quelle con il tiaso dionisiaco, facendo dell’amore il tema specifico dei rilievi. Il fatto che quello del tiaso marino abbia avuto così tanta fortuna, forse, per la numerosa letteratura che metteva in relazione l’Aldilà con l’acqua: l’Isola dei Beati oltre l’Oceano, viaggi per mare verso il mondo dei morti. Certo in questo tipo di sarcofagi non vi sono esplicitate queste credenze, ma sembrano più che altro esaltare le gioie della vita. Forse il tutto può essere spiegato con la coesistenza, nei familiari del defunto, della memoria retrospettiva e della proiezione fiduciosa nel futuro. Sostanzialmente era un modo per evocare situazioni gioiose e di godimento sensibile, riferendole ai morti in chiave beneaugurale. Per quanto rigurda il tiaso di Bacco, la sua fortuna è stata dettata dal fatto che il suo culto è sempre stato molto attivo. Bacco era dio della festa, dell’estasi, del vino, era il grande liberatore, partecipe della crescita e della fioritura, il grande forestiero , che faceva saltare gli ordinamenti prestabiliti, i confini della città con la campagna e le convenzioni sociali. Era il dio della follia, al quale le menadi si abbandonavano nella danza rituale, che aggrediva le belve, amante della natura, ma che penetra nella città, sconvolgendola. Del suo seguito facevano parte esseri ibridi, a metà tra l’ordine e la bestialità e animali feroci ammansiti dal vino. I suoi nemici hanno avuto destini orribili di indicibile crudeltà, ma chi si è affidato anima e corpo a lui ha avuto gioia, voluttà, allegria e pienezza di vita. Pur essendo un valente combattente, ha caratteri languidi e a tratti femminei, con forme floride e capelli lunghi, ebbro e inebriante. Col passare del tempo la conquista indiana di alessandro si intrecciò al mito bacchico e, a lungo andare, tutti i caratteri oscuri e minacciosi della divinità scomparirono del tutto. Un esame sistematico dei temi iconografici riconducibili al mito di Bacco non è per nulla facile, in quanto l’oggetto principale delle raffigurazioni è per lo più il tiaso o come corteo festoso, o come gruppi di figure danzanti e musicanti, o, ancora, intento nella vendemmia. Ciò che interessava agli scultori era l’atmosfera gioiosa del tiaso, al punto che anche un episodio importante, come abbiamo visto, del ritrovamento di Arianna si pèerde completamente dentro al corteo, affollatissimo di personaggi. Questo perché, come si è detto anche al riguardo dei corte marini, per creare immagini il più possibile fitte e gravide di possibilità associative. Altro contesto iconografico dionisiaco è quello degli amori con Arianna. Sui sarcofagi l’amore della coppia divina è raffigurato come una forma di stupore e rapimento alla vista dell’altro, un amore fatto di sguardi, come quello del marito sulla tomba della consorte. Un altro tema , che esalta l’amore, è senza ombra di dubbio quello di Achille e Pentesilea, allegoria dell’amore coniugale. Altra classe è qualla con il mito di Enomao, che celebra il coraggio virile e l’attitudine alla vittoria del defunto e, se è presente la scena di matrimonio con Ippodamia, l’amore verso la sposa. Infine vi sono i sarcofagi delle Muse: esaltazione della cultura e della saggezza del morto. II capitolo Accanto ad i grandi ambiti mitologici dei due tiasi del capitolo precedente era la natura a lanciare un messaggio di vita prospera e pacifica. Gli aspetti iconografici diq uesto tema sono due: le stagioni e la vita in un ambiente bucolico. Nonostante la varietà iconografica del soggetto, l’idea di fondo rimane invariata: le stagioni portano ai morti i loro doni affinchè possano goderne tutto l’anno per l’eternità. Per quanto riguarda le immagini bucoliche sono ispirate alla vita dei pastori di ovini, ma ovviamente non a quella reale: i committenti di tali sarcofagi non avevano mai vissuto con i pastori, né pensavano di farlo i loro parenti. Le immagini realistiche di contadini, pastori, pescatori, tutte figure di infimo livello sociale, avevano assunto tratti idilliaci sotto l’influsso della poesia ellenistica. Tutte queste visioni di felicità mancano di riferimenti concreti sia temporali che geografici. Qui non vi sono protagonisti e situazioni dialogiche con l’osservatore esterno, attraverso la ritrattistica. I defunti se appaiono sono all’interno di un tondo al centro della cassa. Nei contesti bucolici, che andranno via, via, prendendo sempre più piede nel III secolo, come in quelli filosofici, spariscono del tutto le scene di lutto e di cordoglio. Le immagini dovevano essere un invito a godersi la vita, ma dovevano anche dire qualcosa del defunto. In una visione retrospettiva, forse, si potrebbero intendere come una dichiarazione che il morto, in vita, non si era fatto mancare nulla. Nel caso opposto, poteve invece essere un augurio ad un’esistenza felice nell’aldilà. III capitolo Qui vengono trattati i sarcofagi con l’esaltazione e l’autorappresentazione del defunto e delle sue virtù in contesti demitizzati. Tra i valori ricorrenti, esaltati nei sarcofagi vi è l’amore coniugale espresso dal tema della dextrarum iunctio, simbolo del matrimonio, la cultura, il potere, la saggezza, il coraggio, esplicitato dalle cacce ad animali feroci, il valore guerriero e la giustizia, dati soprattutto dalle scene di battaglia e di giudizio sui vinti. IV capitolo In questo capitolo si è provato a dare una nuova chiave di lettura ai sarcofagi imperiali di S. Elena e di Costantina. Nel primo caso si tratterebbe della vittoria eterna sul male, mentre nel secondo era un augurio di vita felice nell’aldilà in comunione con Dio e la resurrezione nel giorno del giudizio. V capitolo Il capitolo tratta le mediae voces, quei pezzi che non trovano una facile collocazione in ambito religioso poiché presentano temi neutri o ambivalenti, come quelli del buon pastore, di Prometeo, dell’orante. VI capitolo Qui trovano spazio i sarcofagi cristiani, dove sono scolpite varie scene tratte dalle Sacre Scritture. Anche in questo caso si andati al di là della semplice analisi stilistica per cercare di leggere il messaggio contenuto dalle sculture. Si sono scoperte preghiere, speranze e polemiche con le correnti cristiane considerate eretiche o “traditrici” della vera fede, contro la tradizionale interpretazione che voleva le figurazioni essenzialmente didascaliche. VII capitolo Qui vengono esposte le conclusioni da un punto di vista sociologico e psicologico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ACQUE E NAVIGAZIONE UN NUOVO MUSEO DELLE ACQUE E DELLA NAVIGAZIONE A RAVENNA L’immagine dell’acqua a Ravenna fa riscoprire una storia della città fatta di corsi e specchi d’acqua. Questi, a causa del tempo e dell’opera dell’uomo scomparvero o mutarono profondamente la loro conformazione. L’importanza quindi dello studio di come questa città abbia convissuto negli anni con l’acqua e come l’uomo si sia adattato a queste condizioni è notevole. Ora Ravenna è una citta di “terra”, collegata al mare solo tramite il canale Candiano, le attività e la vita dell’uomo si sono staccate dall’acqua e nel tempo il mare è diventato solo una “vicinanza” perdendo tutto quel fascino e quell’importanza che possedeva nei secoli precedenti. Tra i tanti aspetti del legame passato tra l’uomo e l’acqua, l’imbarcazione risulta il mezzo più tipico e caratterizzante. Grazie a tanti studi fino ad ora compiuti è possibile ricostruire una catalogazione delle imbarcazioni che hanno fatto parte della storia acquatica di Ravenna e che quindi hanno composto la sua storia. L’imbarcazione costituisce una memoria storica e tecnica, essa riflette i cambiamenti storici e tecnico-evolutivi della civiltà delle acque. L’evoluzione delle barche è delle navi è progredita di pari passo con i cambiamenti delle esigenze dell’uomo, fin dall’antichità. Una rappresentazione tra imbarcazione, storia dell'uomo e geomorfologia della acque a Ravenna fa sì che l’argomento ricopra ambiti generali sull’intera civiltà che ha popolato il ravennate. Il museo delle acque a Ravenna vuole essere perciò un percorso nel passato della città, alla scoperta dell’antico legame con l’acqua, legame che forse ormai è stato dimenticato e di cui a volte si ignora l’esistenza. Questo non comporta il forzare un legame ormai abbandonato, ma un rivivere i momenti che hanno caratterizzato la crescita della città fino allo stato attuale. Questo museo mira a integrare il cospicuo patrimonio storico museale di Ravenna andando a colmare una mancanza da me ritenuta importante, appunto una memoria storica delle vita acquatica della città e dei propri abitanti nel tempo. Il tema museale studiato e analizzato verterà su un percorso nella storia della navigazione e del legame che Ravenna ebbe con l’acqua fin dalle sue origini. Questo importante tema prevederà l’esposizione di importanti relitti navali e ritrovamenti storici per i quali sarà obbligatoria l’organizzazione di appositi spazi espositivi per un’ottima conservazione. L’edificio appare come un rigido corpo all’esterno, rivestito in pietra basaltica grigia con tonalità diverse, mentre dal lato del canale risulta notevolmente più aperto, con un lungo porticato in affaccio diretto sull’acqua che segue tutta la forma del l’edificio stesso e che si interrompe solo in prossimità della grande hall d’ingresso in vetro e acciaio. Queste caratteristiche permettono di creare due facce completamente diverse, una molto chiusa e una invece molto aperta, per enfatizzare il senso di scoperta del “mondo acqua” al momento dell’ingresso nell’edificio. Due realtà molto diverse tra loro. Il lato, che affaccia sulla nuova piazza creata all’interno dell’area, rivestito in pietra basaltica grigia, rende una sensazione di chiusura fisica, creata appositamente per stimolare la scoperta dell’acqua sul lato opposto. La facciata è rotta in maniera irregolare da feritoie, quasi come una enorme roccia sull’acqua, sul riferimento del MuMok, il Museo di Arte Moderna Fondazione Ludwig di Ortner & Ortner aVienna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Come in un affresco nel quale sono stati sovrapposti vari strati di pittura o in un antico manoscritto di pergamena il cui testo originario è stato ricoperto da uno scritto più recente, così l’intento che ha generato il nostro percorso progettuale è stato quello di riscoprire le tracce presenti nell’area sia in ambito archeologico che paesaggistico consentendo una narrazione della storia del sito. L’intento è quello di far emergere l’aspetto relazionale del progetto di paesaggio attraverso la riscoperta degli elementi paesaggistici presenti nell’area di Claterna, strettamente legati ad un fattore identitario, di restituzione e soprattutto di percezione, intesi come lettura da parte di chi vive ed attraversa i territori. Il palinsesto si declina in questo senso come superficie attiva in grado di accogliere programmazioni temporanee e dinamiche per promuovere quella diversificazione e quella stratificazione che da sempre rappresentano il senso di urbanità ma anche il senso del paesaggio in continuo dialogo con il tempo. La messa a sistema dei vari frammenti mira a stabilire così una sequenza capace di guidare il visitatore all’interno del Parco e diviene elemento strutturante per la messa a fuoco di un disegno di mobilità sostenibile che dal centro di accoglienza dell’area archeologica conduce al Parco dei Gessi sfruttando un’antica via di penetrazione appenninica situata alla sinistra del torrente Quaderna. Il Museo della Città di Claterna e della Via Emilia, insieme al Centro ricerca per gli esperti del settore, entreranno così a far parte di una vasta rete di musei archeologici già presenti nel territorio bolognese. La ricchezza di questo sito e gli elementi che lo caratterizzano ci hanno indirizzato verso un duplice progetto che, alla grande scala, non aggiunge altri segni importanti a quelli già presenti nel territorio,cercando quindi di valorizzare i sistemi esistenti focalizzandosi sugli ambiti principali dell’area ed intensificando la consistenza segnaletica degli interventi. E’ stato previsto il mantenimento delle cavedagne esistenti per la fruizione di un Parco Agricolo Didattico legato ai temi delle coltivazioni in epoca romana ed a quelli dell’aia del ‘900, che costituirà un percorso alternativo a quello del Parco Archeologico. Il progetto articolato in un sistema di percorsi che permettono la visita del parco archeologico, vede due teste adiacenti alla Via Emilia e posizionate in modo ad essa speculare che costituiscono i poli principali del progetto: l’area di accoglienza per i visitatori che comprende un Polo Museale ed un Centro Ricerca con annessa una foresteria, punto di forza del parco dal punto di vista programmatico. Un grande museo diffuso all’aperto dunque che prevederà una sequenza museale lineare con un percorso definito, che risulterà si gerarchizzato ma al contempo reversibile. La visita del parco archeologico sarà quindi articolata in un percorso che partendo dal polo museale intercetterà l’area forense per poi sfruttare le cavedagne esistenti. L’area forense concepita come una piazza affacciata sul margine nord della via Emilia, verrà valorizzata dal progetto mediante il ripristino del basolato che affiancherà il percorso di visita installato lungo il perimetro del foro, punto di forza per l’economia dell’antica civitas romana. Il percorso piegherà poi verso la via Emilia affiancando le tracce aeree di un tempio a cameroni ciechi per poi inserirsi sulla cavedagna che costeggia la via Emilia attuale. Si proseguirà poi con la riscoperta di una porzione del basolato dell’antica via Emilia e dell’incrocio tra cardo e decumano fino ad intercettare il settore 11 con la musealizzazione della “domus diacronica” L’area archeologica divisa nettamente in due parti dalla Via Emilia attuale sarà connessa mediante attraversamenti a raso dotati di semafori a chiamata e barre di rallentamento. La scelta di questo tipo di connessione è stata dettata dall’esigenza di non voler introdurre segni forti sull’area come ponti pedonali o sottopassi che andrebbero ad intaccare il suolo archeologico. Il percorso quindi proseguirà con la visita del centro ricerca e di un muro didattico passando per un’area nella quale sono state individuate tracce aeree che verranno valorizzate mediante l’utilizzo di strutture fantasma per la rievocazione volumetrica degli abitati fino ad intercettare l’ultima tappa del percorso che sarà costituita dalla visita al settore 12, la cosiddetta “domus dei mosaici”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mobilità nelle aree urbane di medie e grandi dimensioni risente di molte criticità e spesso è causa di numerose discussioni. L'utilizzo sempre crescente del mezzo di trasporto privato ha prodotto conseguenze negative: l'aumento del traffico e degli incidenti stradali, dell'inquinamento atmosferico e del rumore sono accompagnati da un forte spreco energetico. Dall'altra parte, il trasporto pubblico locale (TPL) non è riuscito a costruirsi canali preferenziali all'interno dell'immaginario cittadino, poiché sottomesso da un modello economico e un mercato fortemente dipendenti dall'automobile. Una via d'uscita dalla mobilità non sostenibile basata sull'utilizzo di combustibili fossili porta a concepire un trasporto pubblico locale gratuito, fruibile dal cittadino in qualsiasi momento della giornata. Attraverso un'analisi dell'azienda del trasporto pubblico bolognese (ATC) e dei dati provenienti dalla sanità regionale, questa tesi intende mostrare che vi sarà un miglioramento della qualità di vita in aree urbane nel momento in cui la teoria della decrescita venga condivisa da tutti i cittadini. Così sarà possibile liberare i centri urbani dai mezzi privati e quindi dagli alti livelli di inquinamento acustico e atmosferico, e dare ai cittadini la vera libertà di movimento. Mobility in medium and large sized urban areas is critical and often a cause for numerous debates. The use of private transport is in constant increase and has generated negative consequences: congestion and road accidents, air and noise pollutio as well as a considerable waste of energy. On the other hand, the local public transport (LPT) has not succeeded in representing the preferred choice by citizens in the urban imaginary. Its potential has been subdued by economic models and markets that are largely dependant on the production of vehicles. An alternative to the current non sustainable mobility based on the combustion of fossil fuels could be the provision of a free local transport network available to the citizen from anywhere at any time. This dissertation's objective is to show how an improvement of the quality of life in urban areas is connected to a collective awareness on the degrowth theory. I intend to achieve this by analysing thoroughly the system of the public transportation agency in Bologna (ATC) and considering data from the local health department. Only then we will be able to limit private vehicles from city centres and as a result of that drastically decrease air and noise pollution whilst providing a true service for a free moving citizen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi dottorale in oggetto prende spunto da alcune considerazioni di base relative alla salute di una comunità. Infatti quest’ultima si fonda sulla sicurezza dell’ambiente in cui vive e sulla qualità delle relazioni tra i suoi componenti. In questo ambito la mobilità rappresenta uno degli elementi di maggior criticità, sia per la sicurezza delle persone, che per la salute pubblica, che per le conseguenze sull’ambiente che ne derivano. Negli ultimi anni la circolazione stradale è notevolmente aumentata è questo ha portato a notevoli aspetti negativi, uno dei quali è connesso agli incidenti stradali. In tale ambito viene ricordato che l’Unione Europea ha da tempo indicato come obiettivo prioritario il miglioramento della sicurezza stradale e nel 2001 ha fissato il traguardo di dimezzare entro il 2010 il numero delle vittime degli incidenti stradali. Non ultima, l’approvazione da parte del Parlamento europeo e del Consiglio di un atto legislativo (d’imminente pubblicazione sulla GU Europea) relativo alla gestione della sicurezza in tutte le fasi della pianificazione, della progettazione e del funzionamento delle infrastrutture stradali, in cui si evidenzia l’esigenza di una quantificazione della sicurezza stradale. In tale contesto viene sottolineato come uno dei maggiori problemi nella gestione della sicurezza stradale sia la mancanza di un metodo affidabile per stimare e quantificare il livello di sicurezza di una strada esistente o in progetto. Partendo da questa considerazione la tesi si sviluppa mettendo in evidenza le grandezza fondamentali nel problema della sicurezza stradale, (grado di esposizione, rischio d’incidente e le possibili conseguenze sui passeggeri) e analizzando i sistemi adottati tradizionalmente per effettuare analisi di sicurezza: • Statistiche dei dati storici d’incidente; • Previsione da modelli basati su analisi di regressione dei dati incidentali; • Studi Before-After; • Valutazione da giudizi di esperti. Dopo aver analizzato gli aspetti positivi e negativi delle alternative in parola, viene proposto un nuovo approccio, che combina gli elementi di ognuno dei metodi sopra citati in un algoritmo di previsione incidentale. Tale nuovo algoritmo, denominato Interactive Highway Safety Design Model (IHSDM) è stato sviluppato dalla Federal Highway Administration in collaborazione con la Turner Fairbank Higway Research Center ed è specifico per le strade extraurbane a due corsie. Il passo successivo nello sviluppo della tesi è quello di un’analisi dettagliata del modello IHSDM che fornisce il numero totale di incidenti previsti in un certo intervallo temporale. Viene analizzata la struttura del modello, i limiti d’applicabilità, le equazioni che ne sono alla base e i coefficienti moltiplicativi relativi ad ogni caratteristica geometrica e funzionale. Inoltre viene presentata un’ampia analisi di sensibilità che permette di definire quale sia l’influenza d’ogni singolo Fattore di Previsione incidentale (Accident Predication Factor) sul risultato finale. Dai temi trattati, emerge chiaramente come la sicurezza è legata a più sistemi tra loro interconnessi e che per utilizzare e migliorare i modelli previsionali è necessario avere a disposizione dati completi, congruenti, aggiornati e facilmente consultabili. Infatti, anche quando sono disponibili elementi su tutti gli incidenti avvenuti, spesso mancano informazioni di dettaglio ma fondamentali, riguardanti la strada come ad esempio il grado di curvatura, la larghezza della carreggiata o l’aderenza della pavimentazione. In tale ottica, nella tesi viene presentato il Sistema Informativo Stradale (SIS) della Provincia di Bologna, concepito come strumento di gestione delle problematiche inerenti la viabilità e come strumento di supporto per la pianificazione degli interventi e la programmazione delle risorse da investire sulla rete. Viene illustrato come il sistema sia in grado di acquisire, elaborare ed associare dati georeferenziati relativi al territorio sia sotto forma di rappresentazioni grafiche, sia mediante informazioni descrittive di tipo anagrafico ed alfanumerico. Quindi viene descritto il rilievo ad alto rendimento, effettuato con l’ausilio di un laboratorio mobile multifunzionale (Mobile Mapping System), grazie al quale è stato possibile definire con precisione il grafo completo delle strade provinciali e il database contenente i dati relativi al patrimonio infrastrutturale. Tali dati, relativi alle caratteristiche plano-altimetriche dell’asse (rettifili, curve planimetriche, livellette, raccordi altimetrici, ecc...), alla sezione trasversale (numero e larghezza corsie, presenza di banchine, ecc..), all’ambiente circostante e alle strutture annesse vengono presentati in forma completa specificando per ognuno la variabilità specifica. Inoltre viene evidenziato come il database si completi con i dati d’incidentali georeferenziati sul grafo e compresivi di tutte le informazioni contenute nel modello ISTAT CTT/INC spiegandone le possibili conseguenze sul campo dell’analisi di sicurezza. La tesi si conclude con l’applicazione del modello IHSDM ad un caso reale, nello specifico la SP255 di S.Matteo Decima. Infatti tale infrastruttura sarà oggetto di un miglioramento strutturale, finanziato dalla Regione Emilia Romagna, che consistente nell’allargamento della sede stradale attraverso la realizzazione di una banchina pavimentata di 1.00m su entrambi i lati della strada dalla prog. km 19+000 al km 21+200. Attraverso l’utilizzo dell’algoritmo di previsione incidentale è stato possibile quantificare gli effetti di questo miglioramento sul livello di sicurezza dell’infrastruttura e verificare l’attendibilità del modello con e senza storia incidentale pregressa. Questa applicazione ad un caso reale mette in evidenza come le informazioni del SIS possano essere sfruttate a pieno per la realizzazione di un analisi di sicurezza attraverso l’algoritmo di previsione incidentale IHSDM sia nella fase di analisi di uno specifico tronco stradale che in quella fondamentale di calibrazione del modello ad una specifica rete stradale (quella della Provincia di Bologna). Inoltre viene sottolineato come la fruibilità e la completezza dei dati a disposizione, possano costituire la base per sviluppi di ricerca futuri, come ad esempio l’indagine sulle correlazioni esistenti tra le variabili indipendenti che agiscono sulla sicurezza stradale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’importanza dell’acqua nel territorio ravennate è facilmente riscontrabile nella sua storia: la città sorge letteralmente in mezzo all’acqua, composta da fiumi, canali e specchi d’acqua, mutati profondamente nel corso del tempo grazie alle bonifiche e all’opera dell’uomo. Diventa, quindi, fondamentale uno studio di come la città abbia convissuto, si sia adattata all’acqua e di come l’uomo abbia cambiato la conformazione della città nel tempo in base al sistema idrico. Ora Ravenna ha, per cosi dire, perso il suo carattere di città marittima, ciò che prima si trovava a diretto contatto con il mare ora risulta distaccato e le tracce di questa evoluzione si sono via via perse col passare degli anni. L’unico collegamento al mare e alle zona lagunare limitrofa al porto rimane il canale Candiano, un collegamento che porta l’acqua fino al confine del centro storico. Il porto che prima rivestiva un ruolo importante e di sopravvivenza, in quanto il mercato ittico rappresentava un punto nodale nella vita della città e dei suoi abitanti, ora ha cambiato la sua destinazione a crocevia del commercio e di materie prime utilizzate dalle industrie sorte lungo le sponde del canale Candiano. Il museo delle acque vuole essere perciò un salto nel passato, riscoprendo e valorizzando l’antico legame tra uomo, città e acqua. Alla luce dello stato di fatto, dei cambiamenti e degli studi condotti sull’area, andiamo ora a chiarire gli aspetti basilari e generatori dell’edificio museale: - L’ingresso verrà posto lungo l’asse viario proveniente dalla città e dal mausoleo di Teodorico. - L’intero progetto verrà immerso nel verde, e collegato al vicino parco di Teodorico. - Il museo verrà realizzato all’interno di una piazza urbana che diverrà il fulcro della nuova cittadella della cultura. Prima di tutto è importante capire cosa si vuole esporre all’interno del museo e a che tipo di visitatore le mostre sono dedicate. Il museo prevede per lo più mostre permanenti dedicate al tema dell’acqua. L’esposizione si dividerà principalmente in due parti, la prima riguarderà le lagune costiere presenti nelle zone del porto di Ravenna, la seconda dedicata al Mare saranno quindi idealmente due percorsi differenti. Il percorso inizierà al primo piano con una sala completamente buia nella quale verranno presentati gli aspetti principali dei fondali. Nel caso delle lagune, saranno esposte le stratificazione e composizione dei fondali con carotaggi e pannelli illustrativi dell’evoluzione nel tempo, gli aspetti chimici e soprattutto idraulici di questo sistema. Il tutto sarà improntato per far comprendere l’importanza delle lagune, grazie alle quali è possibile il corretto funzionamento del porto, dovuto elle maree. Al secondo piano del Museo verrà illustrata la vita all’interno della laguna, quindi le specie presenti, sia animali che vegetali, siano esse naturali o introdotte dall’uomo, come nel caso degli allevamenti di vongole filippine, determinando le dinamiche di conservazione di questo patrimonio faunistico e naturalistico, con attività di analisi legate al centro ricerche. Si provvederà in questo senso anche a controllare i vari livelli massimi di inquinamento delle attività industriali presenti nel canale. Al terzo piano si andranno ad analizzare e mostrare gli aspetti che legano queste zone alle attività umane, che possiamo riunire in due settori principali quali la pesca e la navigazione. Verranno esposti utilizzando modelli in scala, cartellonistica, pannelli illustrativi ed immagini e tutta una serie di oggetti che illustrano le relazioni tre l’uomo e il luogo. Ci sarà una sezione dedicata alle imbarcazioni utilizzate per il guado dei canali, fino ai più piccoli strumenti usati proprio nelle attività di pesca. Al quarto piano si concluderà l’esposizione cercando di lasciare l’aspetto scientifico e ci si dedicherà all’evoluzione del porto dalle origini con il suo mercato ittico, fino ai giorni nostri in cui i traffici di materie prime destinate alle industrie sono l’aspetto principale. Il percorso museale si eleva a spirale, è formato da due rampe quadrate che servono i piani e che si intrecciano senza mai toccarsi. Questo permette al visitatore di scegliere il percorso che più gli interessa e nel modo che vuole, non è obbligato né dall’architettura né dal percorso espositivo, è quindi un sistema molto flessibile rispetto quello del museo classico, può capitare che due visitatori entrino nel museo insieme, inizino il giro in senso opposto, e non si incontrino mai, questa idea risulta complessa e nuova in un edificio che almeno esternamente sembra molto regolare e schematico. Per quanto riguarda la parte dell’illuminazione, che ha avuto anch’essa un ruolo molto importante all’interno del progetto del museo, l’idea è quella di rendere un effetto di risalita dalle profondità del mare fino alla superficie, man mano che si sale lungo il percorso espositivo. Per fare ciò, è stato svolto uno studio attento delle aperture, lasciando il primo piano espositivo cieco ed aprendo il secondo e il terzo piano in maniera da avere un progressivo aumento di luce nelle sale. Le finestre sono state posizionate compatibilmente con la composizione esterna dei prospetti, alla ricerca di un giusto equilibrio tra pieni e vuoti e tra composizione e tecnica.