931 resultados para acidificazione, Isola di Ischia, effetto vento, serie temporali, analisi dati
Resumo:
In questi ultimi anni il tema della sicurezza sismica degli edifici storici in muratura ha assunto particolare rilievo in quanto a partire soprattutto dall’ordinanza 3274 del 2003, emanata in seguito al sisma che colpì il Molise nel 2002, la normativa ha imposto un monitoraggio ed una classificazione degli edifici storici sotto tutela per quanto riguarda la vulnerabilità sismica (nel 2008, quest’anno, scade il termine per attuare quest’opera di classificazione). Si è posto per questo in modo più urgente il problema dello studio del comportamento degli edifici storici (non solo quelli che costituiscono monumento, ma anche e soprattutto quelli minori) e della loro sicurezza. Le Linee Guida di applicazione dell’Ordinanza 3274 nascono con l’intento di fornire strumenti e metodologie semplici ed efficaci per affrontare questo studio nei tempi previsti. Il problema si pone in modo particolare per le chiese, presenti in grande quantità sul territorio italiano e di cui costituiscono gran parte del patrimonio culturale; questi edifici, composti di solito da grandi elementi murari, non presentano comportamento scatolare, mancando orizzontamenti, elementi di collegamento efficace e muri di spina interni e sono particolarmente vulnerabili ad azioni sismiche; presentano inoltre un comportamento strutturale a sollecitazioni orizzontali che non può essere colto con un approccio globale basato, ad esempio, su un’analisi modale lineare: non ci sono modi di vibrare che coinvolgano una sufficiente parte di massa della struttura; si hanno valori dei coefficienti di partecipazione dei varii modi di vibrare minori del 10% (in generale molto più bassi). Per questo motivo l’esperienza e l’osservazione di casi reali suggeriscono un approccio di studio degli edifici storici sacri in muratura attraverso l’analisi della sicurezza sismica dei cosiddetti “macroelementi” in cui si può suddividere un edificio murario, i quali sono elementi che presentano un comportamento strutturale autonomo. Questo lavoro si inserisce in uno studio più ampio iniziato con una tesi di laurea dal titolo “Analisi Limite di Strutture in Muratura. Teoria e Applicazione all'Arco Trionfale” (M. Temprati), che ha studiato il comportamento dell’arco trionfale della chiesa collegiata di Santa Maria del Borgo a San Nicandro Garganico (FG). Suddividere un edificio in muratura in più elementi è il metodo proposto nelle Linee Guida, di cui si parla nel primo capitolo del presente lavoro: la vulnerabilità delle strutture può essere studiata tramite il moltiplicatore di collasso quale parametro in grado di esprimere il livello di sicurezza sismica. Nel secondo capitolo si illustra il calcolo degli indici di vulnerabilità e delle accelerazioni di danno per la chiesa di Santa Maria del Borgo, attraverso la compilazione delle schede dette “di II livello”, secondo quanto indicato nelle Linee Guida. Nel terzo capitolo viene riportato il calcolo del moltiplicatore di collasso a ribaltamento della facciata della chiesa. Su questo elemento si è incentrata l’attenzione nel presente lavoro. A causa della complessità dello schema strutturale della facciata connessa ad altri elementi dell’edificio, si è fatto uso del codice di calcolo agli elementi finiti ABAQUS. Della modellazione del materiale e del settaggio dei parametri del software si è discusso nel quarto capitolo. Nel quinto capitolo si illustra l’analisi condotta tramite ABAQUS sullo stesso schema della facciata utilizzato per il calcolo manuale nel capitolo tre: l’utilizzo combinato dell’analisi cinematica e del metodo agli elementi finiti permette per esempi semplici di convalidare i risultati ottenibili con un’analisi non-lineare agli elementi finiti e di estenderne la validità a schemi più completi e più complessi. Nel sesto capitolo infatti si riportano i risultati delle analisi condotte con ABAQUS su schemi strutturali in cui si considerano anche gli elementi connessi alla facciata. Si riesce in questo modo ad individuare con chiarezza il meccanismo di collasso di più facile attivazione per la facciata e a trarre importanti informazioni sul comportamento strutturale delle varie parti, anche in vista di un intervento di ristrutturazione e miglioramento sismico.
Resumo:
Oggetto di questa tesi è lo studio della qualità del servizio di trasporto erogato che condiziona la qualità percepita dall’utente, poiché spesso proprio a causa di un errato processo di pianificazione e gestione della rete, molte aziende non sono in grado di consolidare un alto livello di efficienza che permetta loro di attrarre e servire la crescente domanda. Per questo motivo, si è deciso di indagare sugli aspetti che determinano la qualità erogata e sui fattori che la influenzano, anche attraverso la definizione di alcuni indicatori rappresentativi del servizio erogato. L’area di studio considerata è stata quella urbana di Bologna, e sono state prese in esame due linee di ATC, la 19 e la 27, caratterizzate entrambe da una domanda di trasporto molto elevata. L’interesse è ricaduto in modo particolare sugli aspetti legati alla regolarità del servizio, ovvero al rispetto della cadenza programmata delle corse e alla puntualità, ossia il rispetto dell’orario programmato delle stesse. Proprio da questi due aspetti, infatti, dipende in larga misura la percezione della qualità che gli utenti hanno del servizio di trasporto collettivo. Lo studio è stato condotto sulla base di dati raccolti attraverso due campagne di rilevamento, una effettuata nel mese di maggio dell’anno 2008 e l’altra nel mese di settembre dello stesso anno. La scelta del periodo, della zona e delle modalità di rilevamento è strettamente connessa all’obiettivo prefissato. Il servizio è influenzato dalle caratteristiche del sistema di trasporto: sia da quelle legate alla domanda che da quelle legate all’offerta. Nel caso della domanda di trasporto si considera l’influenza sul servizio del numero di passeggeri saliti e del tempo di sosta alle fermate. Nel caso dell’offerta di trasporto si osservano soprattutto gli aspetti legati alla rete di trasporto su cui si muovono gli autobus, analizzando quindi i tempi di movimento e le velocità dei mezzi, per vedere come le caratteristiche dell’infrastruttura possano condizionare il servizio. A tale proposito è opportuno dire che, mentre i dati della prima analisi ci sono utili per lo studio dell’influenza del tempo di sosta sull’intertempo, nella seconda analisi si vuole cercare di effettuare ulteriori osservazioni sull’influenza del tempo di movimento sulla cadenza, prendendo in esame altri elementi, come ad esempio tratti di linea differenti rispetto al caso precedente. Un’attenzione particolare, inoltre, verrà riservata alla verifica del rispetto della cadenza, dalla quale scaturisce la definizione del livello di servizio per ciò che riguarda la regolarità. Per quest’ultima verrà, inoltre, determinato anche il LOS relativo alla puntualità. Collegato al problema del rispetto della cadenza è il fenomeno dell’accodamento: questo si verifica quando i mezzi di una stessa linea arrivano contemporaneamente ad una fermata uno dietro l’altro. L’accodamento ha, infatti, origine dal mancato rispetto della cadenza programmata tra i mezzi ed è un’evidente manifestazione del mal funzionamento di un servizio di trasporto. Verrà infine condotta un’analisi dei fattori che possono influenzare le prestazioni del servizio di trasporto pubblico, così da collocare i dati ottenuti dalle operazioni di rilevamento in un quadro più preciso, capace di sottolineare alcuni elementi di criticità e possibili rapporti di causalità.
Resumo:
Questa tesi affronta lo studio delle proprietà statistiche della topologia di un grafo, che rappresenta le relazioni interpersonali in un gruppo di utenti di Facebook. Perché è interessante? Quali informazioni produce? Anzitutto va osservato che dalla nascita di Internet in poi la globalizzazione ha reso le relazioni sociali un fenomeno di massa con numeri sorprendentemente alti di connessioni. Questo e la disponibilità dei dati forniscono una occasione preziosa per analizzarne la struttura.
Resumo:
Questa si ripropone in prima istanza di analizzare le origini e l’evoluzione del concetto di sostenibilità e successivamente di prendere in considerazione uno dei tanti mezzi che consentono di perseguirla: la gestione della sosta. Per molti anni infatti, a partire dal momento in cui sono iniziate ad emergere le esternalità negative legate al traffico, si è pensato che quello dei parcheggi fosse solo un ulteriore problema. Solo di recente, dalla fine degli anni ’90, fatta eccezione per il caso della Gran Bretagna che ha fatto da capofila già a partire dagli anni ’80, si è iniziato a considerare la sosta come parte della soluzione dei problemi di congestione, inquinamento e di vivibilità delle città. Verrà analizzata perciò nel secondo capitolo l’evoluzione delle politiche della sosta a livello europeo, con particolare attenzione all’operato svolto dall’EPA (European Parking Association) associazione leader nel settore riconosciuta dall’Unione Europea e sostenuta da 18 Paesi membri tra cui anche l’Italia. Il lavoro svolto da quest’associazione, nata nei primi anni ’80, è quello di decidere insieme agli associati delle linee comuni da seguire per migliorare le politiche a livello europeo riguardo la gestione della sosta. Si tratta nella pratica di studi, convegni e analisi degli effetti prodotti da provvedimenti intrapresi nelle varie città che hanno iniziato ad introdurre la regolamentazione della sosta. Sempre nel secondo capitolo saranno quindi presentate le linee guida europee nell’ambito dei parcheggi e si analizzeranno casi di “Best Practices” di alcuni Paesi che hanno introdotto provvedimenti per la gestione della sosta. Nel terzo capitolo invece viene considerata la situazione in Italia parlando in principio di Aipark, l’associazione italiana operatori nel settore dei parcheggi che partecipa alle attività dell’Epa e prendendo in esame in seguito le politiche adottate a livello nazionale e nello specifico in alcune tra le più importanti città italiane. Si vedrà come sia ancora troppo marcata la distanza del nostro Paese dai progressi registrati in altri Paesi dell’UE, con le dovute eccezioni. Per quel che riguarda l’aspetto normativo è significativo il fatto che, nonostante il riconoscimento della forte influenza che le politiche della sosta hanno sulla regolazione del traffico, ci siano ancora molte lacune legislative e che spesso la sosta non compaia tra i soggetti delle leggi in tale settore. La legislazione italiana nell’ambito dei parcheggi verrà analizzata nel quarto capitolo. Successivamente, nei capitoli 5 e 6 si parlerà delle fasi preliminari della redazione del Piano della Sosta di Casalecchio di Reno. Il Piano della Sosta è uno dei Piani Particolareggiati che costituiscono il 2° livello di progettazione del PUT (Piano Urbano del Traffico) e rappresenta uno strumento di pianificazione utile ad analizzare lo stato di fatto del sistema dei parcheggi di una città in modo da coglierne le criticità e fornire eventualmente le soluzioni per ovviare ad esse. Nel quinto capitolo viene effettuato un inquadramento territoriale di Casalecchio e si parlerà delle problematiche della sosta emerse nel PGTU (Piano Generale del Traffico Urbano) che costituisce il progetto preliminare o Piano Quadro del PUT. Le fasi attraverso le quali viene elaborato un Piano della sosta si possono sintetizzare nei seguenti punti: - Studio della normativa nazionale e locale e di esempi significativi di altre realtà nell’ambito della sosta. - Analisi dello stato di fatto in termini di domanda e offerta. - Indagini mediante incontri pubblici, distribuzione di questionari o interviste dirette, per cogliere le esigenze degli utenti che usufruiscono del servizio. - Analisi delle eventuali criticità emerse. - Progettazione del nuovo assetto della sosta. - Campagna di sensibilizzazione per fare “accettare” con più facilità i cambiamenti agli utenti. Nel sesto capitolo di questa tesi, e negli allegati si possono consultare i risultati delle indagini su domanda e offerta condotte da TPS (Transport Planning Service), azienda che svolge attività di pianificazione e progettazione, di fornitura software, oltre che indagini e rilievi nell’ambito dei trasporti. Verranno descritte le modalità di rilievo e verranno presentati i risultati ottenuti dall’elaborazione dei dati raccolti, con qualche accenno alle possibili soluzioni per risolvere le problematiche emerse. La fase di progettazione vera e propria degli interventi non verrà invece trattata in questa sede.
Resumo:
In questa Tesi forniamo una libreria di funzioni aritmetiche che operano in spazio logaritmico rispetto all'input. Partiamo con un'analisi dei campi in cui è necessario o conveniente porre dei limiti, in termini di spazio utilizzato, alla computazione di un determinato software. Vista la larga diffusione del Web, si ha a che fare con collezioni di dati enormi e che magari risiedono su server remoti: c'è quindi la necessità di scrivere programmi che operino su questi dati, pur non potendo questi dati entrare tutti insieme nella memoria di lavoro del programma stesso. In seguito studiamo le nozioni teoriche di Complessità, in particolare quelle legate allo spazio di calcolo, utilizzando un modello alternativo di Macchina di Turing: la Offline Turing Machine. Presentiamo quindi un nuovo “modello” di programmazione: la computazione bidirezionale, che riteniamo essere un buon modo di strutturare la computazione limitata in spazio. Forniamo poi una “guida al programmatore” per un linguaggio di recente introduzione, IntML, che permettere la realizzazione di programmi logspace mantenendo però il tradizionale stile di programmazione funzionale. Infine, per mostrare come IntML permetta concretamente di scrivere programmi limitati in spazio, realizziamo una libreria di funzioni aritmetiche che operano in spazio logaritmico. In particolare, mostriamo funzioni per calcolare divisione intera e resto sui naturali, e funzioni per confrontare, sommare e moltiplicare numeri espressi come parole binarie.
Resumo:
L'informazione è alla base della conoscenza umana. Senza, non si potrebbe sapere nulla di ciò che esiste, di ciò che è stato o di quello che potrebbe accadere. Ogni giorno si assimilano moltissime informazioni, che vengono registrate nella propria memoria per essere riutilizzate all'occorrenza. Ne esistono di vari generi, ma il loro insieme va a formare quella che è la cultura, educazione, tradizione e storia dell'individuo. Per questo motivo è importante la loro diffusione e salvaguardia, impedendone la perdita che costerebbe la dipartita di una parte di sé, del proprio passato o del proprio futuro. Al giorno d'oggi le informazioni possono essere acquisite tramite persone, libri, riviste, giornali, la televisione, il Web. I canali di trasmissione sono molti, alcuni più efficaci di altri. Tra questi, internet è diventato un potente strumento di comunicazione, il quale consente l'interazione tra chi naviga nel Web (ossia gli utenti) e una partecipazione attiva alla diffusione di informazioni. Nello specifico, esistono siti (chiamati di microblogging) in cui sono gli stessi utenti a decidere se un'informazione possa essere o meno inserita nella propria pagina personale. In questo caso, si è di fronte a una nuova "gestione dell'informazione", che può variare da utente a utente e può defluire in catene di propagazione (percorsi che compiono i dati e le notizie tra i navigatori del Web) dai risvolti spesso incerti. Ma esiste un modello che possa spiegare l'avanzata delle informazioni tra gli utenti? Se fosse possibile capirne la dinamica, si potrebbe venire a conoscenza di quali sono le informazioni più soggette a propagazione, gli utenti che più ne influenzano i percorsi, quante persone ne vengono a conoscenza o il tempo per cui resta attiva un'informazione, descrivendone una sorta di ciclo di vita. E' possibile nel mondo reale trovare delle caratteristiche ricorrenti in queste propagazioni, in modo da poter sviluppare un metodo universale per acquisirne e analizzarne le dinamiche? I siti di microblogging non seguono regole precise, perciò si va incontro a un insieme apparentemente casuale di informazioni che necessitano una chiave di lettura. Quest'ultima è proprio quella che si è cercata, con la speranza di poter sfruttare i risultati ottenuti nell'ipotesi di una futura gestione dell'informazione più consapevole. L'obiettivo della tesi è quello di identificare un modello che mostri con chiarezza quali sono i passaggi da affrontare nella ricerca di una logica di fondo nella gestione delle informazioni in rete.
Resumo:
Il presente lavoro di tesi è stato realizzato al fine di valutare la distribuzione geografica ed i livelli ambientali di concentrazione per una serie di metalli (Cr, Cu, Ni, Zn, Mn, Co, V, Ba, Pb, Sr e Hg) presenti all’interno dei sedimenti della laguna costiera Pialassa Baiona, situata nei pressi del porto e dell’area industriale di Ravenna. L’area di studio considerata rappresenta un esempio di ambiente di transizione, dove i fattori fisici e chimici variano su scala spaziale e temporale e dove le attività antropiche, recenti e non, hanno provocato impatti significativi sullo stato di qualità dei sedimenti, delle acque e degli ecosistemi. Lo studio è stato progettato seguendo un disegno di campionamento ortogonale, che tiene conto del gradiente naturale terra-mare, tipico delle zone di transizione, e del gradiente antropico, legato alla vicinanza con l’area industriale. Sulla base di questo disegno sono state campionate 4 aree differenti e per ciascuna area sono stati scelti casualmente tre siti. La caratterizzazione dei sedimenti dal punto di vista chimico è stata effettuata determinando la frazione labile e quindi più biodisponibile dei metalli, oggetto del presente studio, per mezzo di una tecnica di estrazione parziale con HCl 1 M. Le concentrazioni biodisponibili ottenute sono state poi confrontate con il contenuto totale dei metalli, determinato mediante digestione totale al micronde. I sedimenti sono stati inoltre caratterizzati dal punto di vista granulometrico e del contenuto in sostanza organica (Loss on Ignition, LOI%). I risultati ottenuti dalle analisi chimiche sono stati confrontati con i valori tipi di fondo naturale del Mar Adriatico e con i valori guida di riferimento nazionale (SQA-MA) ed internazionale (ERL, ERM, TEL e PEL), al fine di valutare lo stato di qualità dei sedimenti della Baiona e di effettuare uno screening per individuare eventuali situazioni di rischio per gli organismi bentonici. I risultati ottenuti sono stati poi elaborati statisticamente con un analisi della varianza (ANOVA) con lo scopo di valutare la variabilità spaziale dei metalli nei campioni analizzati e la presenza di eventuali differenze significative.
Resumo:
Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.
Resumo:
Questa tesi di laurea nasce da una collaborazione con il Centro Studi Vitruviani di Fano, un’associazione nata il 30 Settembre 2010 nella mia città. Le note vicende riguardanti la Basilica vitruviana di Fano fanno della città adriatica il luogo più autorevole per accogliere un Centro Studi Internazionale dedicato all’opera di Vitruvio. Questa associazione è nata come contenitore di riferimento per eventi e iniziative legate al mondo della classicità intesa come momento storico, ma anche come più ampio fenomeno non solo artistico che interessa trasversalmente tutta la cultura occidentale. La creazione di un’istituzione culturale, di fondazione pubblico-privata, con l'obiettivo di porsi a riferimento internazionale per il proprio ambito di ricerca, è notizia comunque rilevante in un periodo in cui lo Stato vara l’articolo 7 comma 22 di una legge che ribadisce la fine dei finanziamenti agli enti, agli istituti, e alle fondazioni culturali. Il Centro Studi Vitruviani dovrà diventare presto sede di momenti scientifici alta, borse di studio, occasioni divulgative, mostre, iniziative didattiche. L’alto livello scientifico mi si è presentato subito chiaro durante questi mesi di collaborazione con il Centro, quando ho avuto l’occasione di incontrare e conoscere e contattare personalità quali i Professori Salvatore Settis, Pierre Gros, Howard Burns, Antonio Corso, Antonio Monterroso e Piernicola Pagliara. Attualmente nella mia città il Centro Studi ha una sede non adeguato, non è fruibile al pubblico (per problemi accessi in comune con altri Enti) e non è riconoscibile dall’esterno. L’attuale sede è all’interno del complesso conventuale del S.Agostino. Il Centro Studi mi ha proposto di valutare la possibilità di un ampliamento dell’associazione in questo edificio storico. Nel mio progetto è stato previsto un processo di acquisizione totale del complesso, con un ripensamento dell’accesso riconoscibile dall’esterno, e un progetto di rifunzionalizzazione degli spazi interni. È stata inserita un’aula per la presentazione di libri, incontri e congressi, mostre ed esposizioni, pubblicazioni culturali e specialistiche. Il fatto interessante di questa sede è che l’edificio vive sulle rovine di un tempio romano, già visitabile e inserite nelle visite della città sotterranea. Fano, infatti, è una città di mare, di luce e nello stesso tempo di architetture romane sotterranee. L’identità culturale e artistica della città è incisa nelle pieghe dei suoi resti archeologici. Le mura augustee fanesi costituiscono il tratto più lungo di mura romane conservate nelle città medio-adriatiche. Degli originari 1750 metri, ne rimangono circa 550. Di grande suggestione sono le imponenti strutture murarie rinvenute sotto il complesso del Sant’Agostino che hanno stimolato per secoli la fantasia e suscitato l'interesse di studiosi ed appassionati. Dopo la prima proposta il Centro Studi Vitruviani mi ha lanciato una sfida interessante: l’allargamento dell’area di progetto provando a ripensare ad una musealizzazione delle rovine del teatro romano dell’area adiacente. Nel 2001 l’importante rinvenimento archeologico dell’edificio teatrale ha donato ulteriori informazioni alle ricostruzione di una pianta archeologica della città romana. Questa rovine tutte da scoprire e da ripensare mi si sono presentate come un’occasione unica per il mio progetto di tesi ed, inoltre, estremamente attuali. Nonostante siano passati dieci anni dal rinvenimento del teatro, dell’area mancava un rilievo planimetrico aggiornato, un’ipotesi ricostruttiva delle strutture. Io con questo lavoro di Tesi provo a colmare queste mancanze. La cosa che ritengo più grave è la mancanca di un progetto di musealizzazione per inserire la rovina nelle visite della Fano romana sotteranea. Spero con questa tesi di aver donato materiale e suggestioni alla mia città, per far comprendere la potenzialità dell’area archeologica. Per affrontare questo progetto di Tesi sono risultate fondamentali tre esperienze maturate durante il mio percorso formativo: prima fra tutte la partecipazione nel 2009 al Seminario Internazionale di Museografia di Villa Adriana Premio di Archeologia e Architettura “Giambattista Piranesi” organizzato nella nostra facoltà dal Prof. Arch. Sandro Pittini. A noi studenti è stata data la possibilità di esercitarci in un progetto di installazioni rigorosamente temporanee all’interno del sedime archeologico di Villa Adriana, grande paradigma per l’architettura antica così come per l’architettura contemporanea. Nel corso del quarto anno della facoltà di Architettura ho avuto l’occasione di seguire il corso di Laboratorio di Restauro con i professori Emanuele Fidone e Bruno Messina. Il laboratorio aveva come obiettivo principale quello di sviluppare un approccio progettuale verso la preesistenza storica che vede l'inserimento del nuovo sull'antico non come un problema di opposizione o di imitazione, ma come fertile terreno di confronto creativo. Durante il quinto anno, ho scelto come percorso conclusivo universitario il Laboratorio di Sintesi Finale L’architettura del Museo, avendo già in mente un progetto di tesi che si rivolgesse ad un esercizio teorico di progettazione di un vero e proprio polo culturale. Il percorso intrapreso con il Professor Francesco Saverio Fera mi ha fatto comprendere come l’architettura dell'edificio collettivo, o più semplicemente dell’edificio pubblico si lega indissolubilmente alla vita civile e al suo sviluppo. È per questo che nei primi capitoli di questa Tesi ho cercato di restituire una seria e attenta analisi urbana della mia città. Nel progetto di Tesi prevedo uno spostamento dell’attuale Sezione Archeologica del Museo Civico di Fano nell’area di progetto. Attualmente la statuaria e le iscrizioni romane sono sistemate in sei piccole sale al piano terra del Palazzo Malatestiano: nel portico adiacente sono esposti mosaici e anfore sottoposte all’azione continua di volatili. Anche la Direttrice del Museo, la Dott.ssa Raffaella Pozzi è convinta del necessario e urgente spostamento. Non è possibile lasciare la sezione archeologica della città all’interno degli insufficienti spazi del Palazzo Malatestiano con centinaia di reperti e materiali vari (armi e uniformi, pesi e misure, ceramiche, staturia, marmi, anfore e arredi) chiusi e ammassati all’interno di inadeguati depositi. Il tutto è stato opportunamente motivato in un capitolo di questa Tesi. Credo fortemente che debbano essere le associazioni quali il CSV assieme al già attivissimo Archeclub di Fano e il Museo Archeologico, i veri punti di riferimento per questa rinascita culturale locale e territoriale, per promuovere studi ed iniziative per la memoria, la tutela e la conservazione delle fabbriche classiche e del locale patrimonio monumentale. Questo lavoro di Tesi vuole essere un esercizio teorico che possa segnare l’inizio di un nuovo periodo culturale per la mia città, già iniziato con l’istituzione del Centro Studi Vitruviani. L’evento folkloristico della Fano dei Cesari, una manifestazione sicuramente importante, non può essere l’unico progetto culturale della città! La “Fano dei Cesari” può continuare ad esistere, ma deve essere accompagnata da grandi idee, grandi mostre ed eventi accademici.
Resumo:
In questa tesi viene descritto lo studio delle fasi liquido-cristalline del 4-n-ottil-4-cianobifenile eseguito tramite simulazioni al calcolatore molecular dynamics, sia per campioni bulk che per film smectici sottili. Impiegando un campo di forze "molecular mechanics" precedentemente usato con successo per studiare sistemi composti da 250 molecole della serie degli n-cianobifenili (nCB, con n pari a 4-8 atomi di carbonio nella catena alifatica), si è simulato il comportamento di un sistema bulk di 750 molecole e di un film smectico di 1500 molecole. Nel primo caso, sottoponendo il campione a un graduale raffreddamento, si è osservata la formazione spontanea di fasi ordinate quali quella nematica e quella smectica. Nel secondo caso, invece, si è studiata l'influenza dell'interfaccia con il vuoto sull'ordine posizionale e orientazionale di film sottili di diverso spessore e temperatura. Si sono confrontate le proprietà di entrambi i sistemi simulati con i dati sperimentali disponibili in letteratura, confermando la bontà del modello nel riprodurre fedelmente le caratteristiche dei campioni reali.
Resumo:
La terra, nel corso della sua storia, ha subito molteplici cambiamenti con la comparsa e scomparsa di numerose specie animali e vegetali. Attualmente, l’estinzioni delle specie, la riduzione degli areali e il depauperamento degli ecosistemi è da ricollegare alle attività dell’uomo. Per tali motivi, in questi ultimi decenni si è iniziato a dare importanza alla conservazione della biodiversità, alla creazione di zone protette e a sviluppare interventi di reintroduzione e rafforzamento di specie rare e a rischio di estinzione. Questo lavoro di tesi si propone di analizzare la variabilità genetica delle popolazioni di Rhododendron ferrugineum L. lungo il suo areale, con particolare attenzione alle aree marginali dell’Appennino, dove la specie rappresenta un caso di pseudo rarità, al fine di valutare lo stato di salute della specie al limite del suo areale e valutare appropriati interventi di conservazione o reintroduzione. Per effettuare le analisi sono stati messi a punto dei marcatori molecolari discontinui, i microsatelliti, che, essendo dei marcatori co-dominati, permettono di valutare differenti parametri legati alla diversità genetica delle popolazioni inclusi i livelli di eterozigotà ed il flusso genico tra popolazioni limitrofe. I campionamenti sono stati effettuati nelle uniche 3 stazioni presenti sugli Appennini. Al fine di confrontare la struttura genetica di queste popolazioni sono state considerate anche popolazioni delle Alpi Marittime, delle Alpi centro-orientali e dei Pirenei. L’analisi della diversità genetica effettuata su questo pool di popolazioni analizzate con 7 marcatori microsatelliti, ha messo in evidenza che le popolazioni relitte dell’Appennino Tosco-Emiliano presentano un ridotto livello di eterozigosità che suggerisce quindi un elevato livello di inbreeding. Si ritiene che ciò sia dovuto alla loro dislocazione sul territorio, che le rende isolate sia tra di loro che dalle popolazioni delle vicine Alpi Marittime. La stima delle relazioni genetiche tra le popolazioni appenniniche e le vicine piante alpine evidenzia come non vi sia scambio genetico tra le popolazioni. Le analisi dei cluster suggeriscono che due delle popolazioni Appenniniche siano più simili alle popolazioni della Alpi Marittime, mentre la terza ha più affinità con le popolazioni delle Alpi centro-orientali. Le popolazioni dei Pirenei risultano essere geneticamente più simili alle popolazioni delle Alpi Marittime, in particolare alle tre popolazioni del versante francese. In questo lavoro abbiamo affrontato anche il problema delle specie ibride. Rhododendron x intermedium Tausch è un ibrido frutto dell’incrocio tra Rhododendron ferrugineum L. e Rhododendron hirsutum L., in grado di incrociarsi sia con altri ibridi, sia con i parentali (fenomeno dell’introgressione). L’origine di questo ibrido risiede nella simpatria delle due specie parentali, che tuttavia, presentano esigenze ecologiche differenti. Ad oggi la presenza di Rhododendron x intermedium è stata accertata in almeno tre stazioni sulle Alpi Italiane, ma la letteratura documenta la sua presenza anche in altre zone dell’Arco Alpino. L’obiettivo di questa ricerca è stato quello di verificare la reale natura ibrida di Rhododendron x intermedium in queste stazioni utilizzando un approccio integrato ossia sia attraverso un’analisi di tipo morfologico sia attraverso un analisi di tipo molecolare. In particolare l’approccio molecolare ha previsto prima un’analisi filogenetica attraverso l’utilizzo di marcatori molecolari filogenetici nucleari e plastidiali (ITS, At103, psbA-trnH e matK) e quindi un’analisi della struttura delle popolazioni della specie ibrida attraverso l’utilizzo di marcatori molecolari microsatelliti. Da un’analisi morfologica, risulta che gli esemplari ibridi possono essere molto differenti tra loro e ciò supporta la formazione di sciami ibridi. Al fine di verificare la natura di questa specie e la struttura delle popolazioni ibride e dei rispettivi parentali, sono state campionate differenti popolazioni in tutta l’area di interesse. I campioni ottenuti sono stati quindi analizzati geneticamente mediante marcatori molecolari del DNA. I risultati ottenuti hanno permesso innanzitutto di confermare l’origine ibrida degli individui di prima generazione della specie Rhododendron x intermedium e quindi di distinguere i parentali dagli ibridi ed evidenziare la struttura genetica delle popolazioni ibride.
Resumo:
L'obbiettivo della presente tesi curriculare è una lettura di alcuni esami in relazione all'idea di ar-chitettura che la nostra Scuola – la Facoltà di Architettura “Aldo Rossi” – porta avanti: l'architettura come progetto collettivo e unitario nel tempo fondato sui fatti architettonici, ovvero l'architettura come scienza: Noi raccogliamo questa strada dell'architettura come scienza, della formulazione logica dei principi, della meditazione sui fatti architettonici e quindi principalmente sui monumenti e pensiamo di verificarla attraverso una serie di architetti e di opere antiche e moderne che noi scegliamo, su cui operiamo un certo tipo di scelta . Ciò che caratterizza l'architettura come scienza è il metodo progettuale: l'obbiettivo della tesi è pertanto una riflessione sulla teoria della progettazione insegnata nella nostra Scuola – intesa come momento della più generale teoria dell'architettura di Aldo Rossi – ovvero su come essa sia stata seguita per realizzare i progetti presentati. La tesi è così ordinata: una prima parte dedicata alla teoria dell'architettura di Aldo Rossi nella quale vengono indicati i principi, cioè lo scopo che la nostra Scuola di architettura persegue; una seconda parte dedicata alla teoria della progettazione nella quale viene indicato il metodo, cioè lo strumento eminente che la nostra Scuola di architettura utilizza; infine sono presentati i progetti –Laboratorio di sintesi finale: l'architettura del museo; Disegno dell'architettura II; Laboratorio di progettazione architettonica IV; – scelti per mettere in luce le distinte parti di cui il metodo consiste.