924 resultados para energie rinnovabili, idroelettrico, valutazione di impatto ambientale.


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il testo ripercorre le origini del romanzo poliziesco, la sua struttura, le tecniche narrative utilizzate e l’evoluzione del genere che ha condotto alla nascita del Noir francese e del Noir Mediterraneo. Arrivando ad osservare che per le sue caratteristiche, la letteratura noir in generale presenta specificità di tipo culturale, ambientale e linguistico, che risultano molto evidenti nell’opera di Izzo, si giunge a considerare come sia necessario per il traduttore porsi rispetto all’opera come un antropologo o un etnologo, di farsi cioè interprete di una “cultura”. Nella terza parte del lavoro vengono presentati la Trilogia di Izzo, la struttura narrativa e gli elementi socio-culturali presenti nell’opera. La quarta parte propone le teorie relative sia al problema della traduzione interlinguistica, sia a quello della traduzione intralinguistica e successivamente dopo una analisi della traduzione italiana dei testi, presenta, in appendice, una possibile traduzione del prologo di Total Khéops, inteso come sintesi delle caratteristiche narrative e culturali dell’autore. La parte conclusiva di questo lavoro riguarda la traduzione intercodica e, seguendo la linea di pensiero che ha governato l’analisi della Trilogia vengono presi in esame e messi a confronto col testo narrativo alcuni dialoghi significativi dell’adattamento per la televisione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Oggetto di studio del dottorato sono stati i suoli forestali in ambiente litoraneo della Regione Emilia-Romagna. In particolare sono state considerate quattro zone di studio in Provincia di Ravenna: Pineta di San Vitale, aree boscate di Bellocchio, Pineta di Classe e Pineta di Pinarella di Cervia. Lo studio in una prima fase si è articolato nella definizione dello stato del sistema suolo, mediante la caratterizzazione pedologica delle zone di studio. A tale scopo è stata messa a punto un’adeguata metodologia d’indagine costituita da un’indagine ambientale e successivamente da un’indagine pedologica. L’indagine ambientale, mediante fotointerpretazione ed elaborazione di livelli informativi in ambito GIS, ha permesso di individuare ambiti pedogenetici omogenei. L’indagine pedologica in campo ha messo in luce l’elevata variabilità spaziale di alcuni fattori della pedogenesi, in particolar modo l’andamento microtopografico tipico dei sistemi dunali costieri e la profondità della falda freatica del piano campagna. Complessivamente sono stati aperti descritti e campionati 40 profili pedologici. Sugli orizzonti diagnostici di questi sono state eseguite le seguenti analisi: tessitura, pH, calcare totale, carbonio organico, azoto kjeldahl, conduttività elettrica (CE), capacità di scambio cationico (CSC) e calcare attivo. I suoli presentano, ad eccezione della tessitura (generalmente grossolana), un’elevata variabilità delle proprietà chimico fisiche in funzione della morfologia, della profondità e della vicinanza della falda freatica. Sono state riscontrate diverse correlazioni, tra le più significative quelle tra carbonio organico e calcare totale (coeff. di correlazione R = -0.805 per Pineta di Classe) e tra calcare totale e pH (R = 0.736), dalle quali si è compreso in che misura l’effetto della decarbonatazione agisce nei diversi ambiti pedogenetici e tra suoli con diversa età di formazione. Il calcare totale varia da 0 a oltre 400 g.kg-1 e aumenta dalla superficie in profondità, dall’entroterra verso la costa e da nord verso sud. Il carbonio organico, estremamente variabile (0.1 - 107 g.kg-1), è concentrato soprattutto nel primo orizzonte superficiale. Il rapporto C/N (>10 in superficie e molto variabile in profondità) evidenzia una efficienza di umificazione non sempre ottimale specialmente negli orizzonti prossimi alla falda freatica. I tipi di suoli presenti, classificati secondo la Soil Taxonomy, sono risultati essere Mollic/Sodic/Typic Psammaquents nelle zone interdunali, Typic Ustipsamments sulle sommità dunali e Oxiaquic/Aquic Ustipsamments negli ambienti morfologici intermedi. Come sintesi della caratterizzazione pedologica sono state prodotte due carte dei suoli, rispettivamente per Pineta di San Vitale (scala 1:20000) e per le aree boscate di Bellocchio (scala 1:10000), rappresentanti la distribuzione dei pedotipi osservati. In una seconda fase si è focalizzata l’attenzione sugli impatti che le principali pressioni naturali ed antropiche, possono esercitare sul suolo, condizionandone la qualità in virtù delle esigenze del soprasuolo forestale. Si è scelta la zona sud di Pineta San Vitale come area campione per monitorarne mensilmente, su quattro siti rappresentativi, le principali caratteristiche chimico-fisiche dei suoli e delle acque di falda, onde evidenziare possibili correlazioni. Le principali determinazioni svolte sia nel suolo in pasta satura che nelle acque di falda hanno riguardato CE, Ca2+, Mg2+, K+, Na+, Cl-, SO4 2-, HCO3 - e SAR (Sodium Adsorption Ratio). Per ogni sito indagato sono emersi andamenti diversi dei vari parametri lungo i profili, correlabili in diversa misura tra di loro. Si sono osservati forti trend di aumento di CE e degli ioni solubili verso gli orizzonti profondi in profili con acqua di falda più salina (19 – 28 dS.m-1) e profonda (1 – 1.6 m dalla superficie), mentre molto significativi sono apparsi gli accumuli di sali in superficie nei mesi estivi (CE in pasta satura da 17.6 a 28.2 dS.m-1) nei profili con falda a meno di 50 cm dalla superficie. Si è messo successivamente in relazione la CE nel suolo con diversi parametri ambientali più facilmente monitorabili quali profondità e CE di falda, temperatura e precipitazioni, onde trovarne una relazione statistica. Dai dati di tre dei quattro siti monitorati è stato possibile definire tali relazioni con equazioni di regressione lineare a più variabili. Si è cercato poi di estendere l’estrapolabilità della CE del suolo per tutte le altre casistiche possibili di Pineta San Vitale mediante la formulazione di un modello empirico. I dati relativi alla CE nel suolo sia reali che estrapolati dal modello, sono stati messi in relazione con le esigenze di alcune specie forestali presenti nelle zone di studio e con diverso grado di tolleranza alla salinità ed al livello di umidità nel suolo. Da tali confronti è emerso che per alcune specie moderatamente tolleranti la salinità (Pinus pinea, Pinus pinaster e Juniperus communis) le condizioni critiche allo sviluppo e alla sopravvivenza sono da ricondursi, per la maggior parte dei casi, alla falda non abbastanza profonda e non tanto alla salinità che essa trasmette sull’intero profilo del suolo. Per altre specie quali Quercus robur, Populus alba, Fraxinus oxycarpa e Ulmus minor moderatamente sensibili alla salinità, ma abituate a vivere in suoli più umidi, la salinità di una falda troppo prossima alla superficie può ripercuotersi su tutto il profilo e generare condizioni critiche di sviluppo. Nei suoli di Pineta San Vitale sono stati inoltre studiati gli aspetti relativi all’inquinamento da accumulo di alcuni microtossici nei suoli quali Ag, Cd, Ni e Pb. In alcuni punti di rilievo sono stati osservati moderati fattori di arricchimento superficiale per Pb e Cd riconducibili all’attività antropica, mentre le aliquote biodisponibili risultano maggiori in superficie, ma all’interno dei valori medi dei suoli italiani. Lo studio svolto ha permesso di meglio conoscere gli impatti sul suolo, causati dalle principali pressioni esistenti, in un contesto dinamico. In particolare, si è constatato come i suoli delle zone studiate abbiano un effetto tampone piuttosto ridotto sulla mitigazione degli effetti indotti dalle pressioni esterne prese in esame (salinizzazione, sodicizzazione e innalzamento della falda freatica). Questo è dovuto principalmente alla ridotta presenza di scambiatori sulla matrice solida atti a mantenere un equilibrio dinamico con le frazioni solubili. Infine le variabili ambientali considerate sono state inserite in un modello concettuale DPSIR (Driving forces, Pressures, States, Impacts, Responces) dove sono stati prospettati, in via qualitativa, alcuni scenari in funzione di possibili risposte gestionali verosimilmente attuabili, al fine di modificare le pressioni che insistono sul sistema suolo-vegetazione delle pinete ravennati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La relazione mira ad illustrare l'importanza del compostaggio, quale tecnologia per lo smaltimento dei rifiuti e recupero di risorse. Vengono descritti il processo di stabilizzazione aerobica, i meccanismi microbici e i parametri fisico-chimici che lo caratterizzano. E' evidenziata l'importanza della raccolta differenziata e della scelta delle matrici compostabili nell'ottimizzazione di questa biotecnologia spontanea per il trattamento di rifiuti e reflui organici putrescibili. E' sottolineato, inoltre, come una corretta gestione del processo permetta di valorizzare residui di varia natura trasformandoli in un buon compost, prodotto valido dal punto di vista agronomico e ambientale. Nella parte finale della relazione verrà inoltre descritto un impianto di compostaggio, presente nel territorio regionale, la Nuova Geovis di Sant'Agata Bolognese e dal punto di vista applicativo, verrà  costruito un modello, che permetta di legare l'andamento della temperatura all'andamento dell'IRD, Indice di Respirazione Dinamico, attraverso dati raccolti presso l'impianto, relativi ovviamente a Indice di Respirazione Dinamico (IRD) e temperatura. Questo anche per valutare il corretto del processo stesso.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il proliferare di dispositivi di elaborazione e comunicazione mobili (telefoni cellulari, computer portatili, PDA, wearable devices, personal digital assistant) sta guidando un cambiamento rivoluzionario nella nostra società dell'informazione. Si sta migrando dall'era dei Personal Computer all'era dell'Ubiquitous Computing, in cui un utente utilizza, parallelamente, svariati dispositivi elettronici attraverso cui può accedere a tutte le informazioni, ovunque e quantunque queste gli si rivelino necessarie. In questo scenario, anche le mappe digitali stanno diventando sempre più parte delle nostre attività quotidiane; esse trasmettono informazioni vitali per una pletora di applicazioni che acquistano maggior valore grazie alla localizzazione, come Yelp, Flickr, Facebook, Google Maps o semplicemente le ricerche web geo-localizzate. Gli utenti di PDA e Smartphone dipendono sempre più dai GPS e dai Location Based Services (LBS) per la navigazione, sia automobilistica che a piedi. Gli stessi servizi di mappe stanno inoltre evolvendo la loro natura da uni-direzionale a bi-direzionale; la topologia stradale è arricchita da informazioni dinamiche, come traffico in tempo reale e contenuti creati dagli utenti. Le mappe digitali aggiornabili dinamicamente sono sul punto di diventare un saldo trampolino di lancio per i sistemi mobili ad alta dinamicità ed interattività, che poggiando su poche informazioni fornite dagli utenti, porteranno una moltitudine di applicazioni innovative ad un'enorme base di consumatori. I futuri sistemi di navigazione per esempio, potranno utilizzare informazioni estese su semafori, presenza di stop ed informazioni sul traffico per effettuare una ottimizzazione del percorso che valuti simultaneamente fattori come l'impronta al carbonio rilasciata, il tempo di viaggio effettivamente necessario e l'impatto della scelta sul traffico locale. In questo progetto si mostra come i dati GPS raccolti da dispositivi fissi e mobili possano essere usati per estendere le mappe digitali con la locazione dei segnali di stop, dei semafori e delle relative temporizzazioni. Queste informazioni sono infatti oggi rare e locali ad ogni singola municipalità, il che ne rende praticamente impossibile il pieno reperimento. Si presenta quindi un algoritmo che estrae utili informazioni topologiche da agglomerati di tracciati gps, mostrando inoltre che anche un esiguo numero di veicoli equipaggiati con la strumentazione necessaria sono sufficienti per abilitare l'estensione delle mappe digitali con nuovi attributi. Infine, si mostrerà come l'algoritmo sia in grado di lavorare anche con dati mancanti, ottenendo ottimi risultati e mostrandosi flessibile ed adatto all'integrazione in sistemi reali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo della presente dissertazione è la valutazione della vulnerabilità sismica del nucleo storico del complesso di San Giovanni in Monte a Bologna, con i metodi indicati nelle “Linee Guida” del Ministero per i Beni e le Attività Culturali, secondo i livelli di valutazione LV1 ed LV3. Gli edifici oggetto di studio si inseriscono all’interno di un aggregato storico unico nel suo genere che ha avuto come centro di sviluppo la Chiesa di San Giovanni in Monte e successivamente il complesso costituito da Chiesa e monastero adiacente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

INTRODUCTION – In human medicine, diabetes mellitus (DM), hypertension, proteinuria and nephropathy are often associated although it is still not clear whether hypertension is the consequence or the cause of nephropathy and albuminuria. Microalbuminuria, in humans, is an early and sensitive marker which permits timely and effective therapy in the early phase of renal damage. Conversely, in dogs, these relationships were not fully investigated, even though hypertension has been associated with many diseases (Bodey and Michell, 1996). In a previous study, 20% of diabetic dogs were found proteinuric based on a U:P/C > 1 and 46% were hypertensive; this latter finding is similar to the prevalence of hypertension in diabetic people (40-80%) (Struble et al., 1998). In the same canine study, hypertension was also positively correlated with the duration of the disease, as is the case in human beings. Hypertension was also found to be a common complication of hypercortisolism (HC) in dogs, with a prevalence which varies from 50 (Goy-Thollot et al., 2002) to 80% (Danese and Aron, 1994).The aim of our study was to evaluate the urinary albumin to creatinine ratio (U:A/C) in dogs affected by Diabetes Mellitus and HC in order to ascertain if, as in human beings, it could represent an early and more sensitive marker of renal damage than U:P/C. Furthermore, the relationship between proteinuria and hypertension in DM and HC was also investigated. MATERIALS AND METHODS – Twenty dogs with DM, 14 with HC and 21 healthy dogs (control group) were included in the prospective case-control study. Inclusion criteria were hyperglycaemia, glicosuria and serum fructosamine above the reference range for DM dogs and a positive ACTH stimulation test and/or low-dose dexamethasone test and consistent findings of HC on abdominal ultrasonography in HC dogs. Dogs were excluded if affected by urinary tract infections and if the serum creatinine or urea values were above the reference range. At the moment of inclusion, an appropriate therapy had already been instituted less than 1 month earlier in 12 diabetic dogs. The control dogs were considered healthy based on clinical exam and clinicopathological findings. All dogs underwent urine sample collection by cystocentesis and systemic blood pressure measurement by means of either an oscillometric device (BP-88 Next, Colin Corporation, Japan) or by Doppler ultrasonic traducer (Minidop ES-100VX, Hadeco, Japan). The choice of method depended on the dog’s body weight: Doppler ultrasonography was employed in dogs < 20 kg of body weight and the oscillometric method in the other subjects. Dogs were considered hypertensive whenever systemic blood pressure was found ≥ 160 mmHg. The urine was assayed for U:P/C and U:A/C (Gentilini et al., 2005). The data between groups were compared using the Mann-Whitney U test. The reference ranges for U:P/C and U:A/C had already been established by our laboratory as 0.6 and 0.05, respectively. U:P/C and U:A/C findings were correlated to systemic blood pressure and Spearman R correlation coefficients were calculated. In all cases, p < 0.05 was considered statistically significant. RESULTS – The mean ± sd urinary albumin concentration in the three groups was 1.79 mg/dl ± 2.18; 20.02 mg/dl ± 43.25; 52.02 mg/dl ± 98.27, in healthy, diabetic and hypercortisolemic dogs, respectively. The urine albumin concentration differed significantly between healthy and diabetic dogs (p = 0.008) and between healthy and HC dogs (p = 0.011). U:A/C values ranged from 0.00 to 0.34 (mean ± sd 0.02 ± 0.07), 0.00 to 6.72 (mean ± sd 0.62 ± 1.52) and 0.00 to 5.52 (mean ± sd 1.27 ± 1.70) in the control, DM and HC groups, respectively; U:P/C values ranged from 0.1 to 0.6 (mean ± sd 0.17 ± 0.15) 0.1 to 6.6 (mean ± sd 0.93 ± 1.15) and 0.2 to 7.1 (mean ± sd 1.90 ± 2.11) in the control, DM and HC groups, respectively. In diabetic dogs, U:A/C was above the reference range in 11 out of 20 dogs (55%). Among these, 5/20 (25%) showed an increase only in the U:A/C ratio while, in 6/20 (30%), both the U:P/C and the U:A/C were abnormal. Among the latter, 4 dogs had already undergone therapy. In subjects affected with HC, U:P/C and U:A/C were both increased in 10/14 (71%) while in 2/14 (14%) only U:A/C was above the reference range. Overall, by comparing U:P/C and U:A/C in the various groups, a significant increase in protein excretion in disease-affected animals compared to healthy dogs was found. Blood pressure (BP) in diabetic subjects ranged from 88 to 203 mmHg (mean ± sd 143 ± 33 mmHg) and 7/20 (35%) dogs were found to be hypertensive. In HC dogs, BP ranged from 116 to 200 mmHg (mean ± sd 167 ± 26 mmHg) and 9/14 (64%) dogs were hypertensive. Blood pressure and proteinuria were not significantly correlated. Furthermore, in the DM group, U:P/C and U:A/C were both increased in 3 hypertensive dogs and 2 normotensive dogs while the only increase of U:A/C was observed in 2 hypertensive and 3 normotensive dogs. In the HC group, the U:P/C and the U:A/C were both increased in 6 hypertensive and 2 normotensive dogs; the U:A/C was the sole increased parameter in 1 hypertensive dog and in 1 dog with normal pressure. DISCUSSION AND CONCLUSION- The findings of this study suggest that, in dogs affected by DM and HC, an increase in U:P/C, U:A/C and systemic hypertension is frequently present. Remarkably, some dogs affected by both DM and HC showed an U:A/C but not U:P/C above the reference range. In diabetic dogs, albuminuria was observed in 25% of the subjects, suggesting the possibility that this parameter could be employed for detecting renal damage at an early phase when common semiquantiative tests and even U:P/C fall inside the reference range. In HC dogs, a higher number of subjects with overt proteinuria was found while only 14% presented an increase only in the U:A/C. This fact, associated with a greater number of hypertensive dogs having HC rather than DM, could suggest a greater influence on renal function by the mechanisms involved in hypertension secondary to hypercortisolemia. Furthermore, it is possible that, in HC dogs, the diagnosis was more delayed than in DM dogs. However, the lack of a statistically significant correlation between hypertension and increased protein excretion as well as the apparently random distribution of proteinuric subjects in normotensive and hypertensive cases, imply that other factors besides hypertension are involved in causing proteinuria. Longitudinal studies are needed to further investigate the relationship between hypertension and proteinuria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il progetto di percorso urbano ‘S’intende per restauro qualsiasi intervento volto a conservare e a trasmettere al futuro, facilitandone la lettura e senza cancellarne le tracce del passaggio nel tempo, le opere d’interesse storico, artistico e ambientale; esso si fonda sul rispetto della sostanza antica e delle documentazioni autentiche costituite da tali opere, proponendosi, inoltre, come atto d’interpretazione critica non verbale ma espressa nel concreto operare’ (G.Carbonara) Celate all’interno di edifici privati, ritrovate quasi sempre fortuitamente, ai più sconosciute, le pitture murali del Trecento riminese necessitano un processo di valorizzazione. Si tratta di portarle alla luce una seconda volta creando un percorso di riscoperta di queste opere nascoste, di cui raramente si è più sentito parlare dopo il clamore sollevato dalla mostra del 1935 organizzata da Brandi. Si parla quindi di un percorso conoscitivo. Un percorso urbano che tocchi i luoghi dove queste sono ancora conservate: l’antica chiesa di San Michelino in foro (oggi divisa tra più proprietari privati), la chiesa di Sant’Agostino, la cappella del campanile della chiesa di Santa Maria in Corte, la cappella del Crocifisso in San Nicolò al porto. Le chiese costituiranno le tappe di un percorso che si articolerà attraverso le strade medievali della città. Si verrà a creare quindi un percorso non solo alla scoperta delle pitture murali del XIII e XIV secolo, ma alla scoperta della Rimini del Trecento, delle sue vie, del suo sviluppo urbano. Si affronterà il problema del restauro delle pitture murali, ma sempre preoccupandosi della buona conservazione e del mantenimento del monumento nel suo insieme. Pittura murale e architettura sono, come sostiene Philippot, inscindibili: trattando una pittura murale, il restauratore tratta sempre e solo una parte di un insieme più vasto, che costituisce il tutto al quale egli si dovrà riferire, tanto dal punto di vista estetico e storico, quanto dal punto di vista tecnico . Per ogni chiesa si prevederà quindi, oltre al progetto di restauro della pittura, anche un progetto di fruizione dello spazio architettonico e di riconfigurazione dello stesso, quando necessario, ragionando caso per caso. Si è deciso di porre come origine del percorso l’antica chiesa di San Michelino. La motivazione di questa scelta risiede nel fatto che in questo edificio si è individuato il luogo adatto ad ospitare uno spazio espositivo dove raccontare la Rimini del Trecento. Uno spazio espositivo al servizio della città, con la progettazione del quale si cercherà di restituire unità agli ambienti dell’antica chiesa, oggi così frazionati tra troppi proprietari. Da San Michelino si continuerà verso la chiesa di Sant’Agostino, dove si trovano affreschi del Trecento riminese già molto noti e studiati. Ciò che si rende necessario in questo caso è la riconfigurazione architettonica e spaziale degli affreschi della parte bassa della cappella del campanile, staccati e trasferiti su pannelli negli anni ’70, oltre alla previsione di un sistema di monitoraggio degli affreschi stessi. La terza tappa del percorso sarà la chiesa di Santa Maria in Corte. Il ciclo di affreschi si trova all’interno della cappella del campanile, oggi chiusa al pubblico ed esclusa dallo spazio della chiesa dopo gli interventi barocchi. Abbiamo quindi pensato di proporre una soluzione che permetta una più agevole fruizione della cappella, progettando un’illuminazione e un percorso d’accesso adeguati. Più complesso è il caso di San Nicolò al porto, individuata come ultima tappa del percorso. Si tratta in questo caso della riconfigurazione di un intero isolato, che nel tempo ha perso totalmente il suo significato urbano riducendosi ad una sorta di spartitraffico. Qui si rendeva necessaria inoltre la progettazione di una nuova chiesa, presentando quella attuale seri problemi statici.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il progetto di percorso urbano ‘S’intende per restauro qualsiasi intervento volto a conservare e a trasmettere al futuro, facilitandone la lettura e senza cancellarne le tracce del passaggio nel tempo, le opere d’interesse storico, artistico e ambientale; esso si fonda sul rispetto della sostanza antica e delle documentazioni autentiche costituite da tali opere, proponendosi, inoltre, come atto d’interpretazione critica non verbale ma espressa nel concreto operare’ (G.Carbonara) Celate all’interno di edifici privati, ritrovate quasi sempre fortuitamente, ai più sconosciute, le pitture murali del Trecento riminese necessitano un processo di valorizzazione. Si tratta di portarle alla luce una seconda volta creando un percorso di riscoperta di queste opere nascoste, di cui raramente si è più sentito parlare dopo il clamore sollevato dalla mostra del 1935 organizzata da Brandi. Si parla quindi di un percorso conoscitivo. Un percorso urbano che tocchi i luoghi dove queste sono ancora conservate: l’antica chiesa di San Michelino in foro (oggi divisa tra più proprietari privati), la chiesa di Sant’Agostino, la cappella del campanile della chiesa di Santa Maria in Corte, la cappella del Crocifisso in San Nicolò al porto. Le chiese costituiranno le tappe di un percorso che si articolerà attraverso le strade medievali della città. Si verrà a creare quindi un percorso non solo alla scoperta delle pitture murali del XIII e XIV secolo, ma alla scoperta della Rimini del Trecento, delle sue vie, del suo sviluppo urbano. Si affronterà il problema del restauro delle pitture murali, ma sempre preoccupandosi della buona conservazione e del mantenimento del monumento nel suo insieme. Pittura murale e architettura sono, come sostiene Philippot, inscindibili: trattando una pittura murale, il restauratore tratta sempre e solo una parte di un insieme più vasto, che costituisce il tutto al quale egli si dovrà riferire, tanto dal punto di vista estetico e storico, quanto dal punto di vista tecnico . Per ogni chiesa si prevederà quindi, oltre al progetto di restauro della pittura, anche un progetto di fruizione dello spazio architettonico e di riconfigurazione dello stesso, quando necessario, ragionando caso per caso. Si è deciso di porre come origine del percorso l’antica chiesa di San Michelino. La motivazione di questa scelta risiede nel fatto che in questo edificio si è individuato il luogo adatto ad ospitare uno spazio espositivo dove raccontare la Rimini del Trecento. Uno spazio espositivo al servizio della città, con la progettazione del quale si cercherà di restituire unità agli ambienti dell’antica chiesa, oggi così frazionati tra troppi proprietari. Da San Michelino si continuerà verso la chiesa di Sant’Agostino, dove si trovano affreschi del Trecento riminese già molto noti e studiati. Ciò che si rende necessario in questo caso è la riconfigurazione architettonica e spaziale degli affreschi della parte bassa della cappella del campanile, staccati e trasferiti su pannelli negli anni ’70, oltre alla previsione di un sistema di monitoraggio degli affreschi stessi. La terza tappa del percorso sarà la chiesa di Santa Maria in Corte. Il ciclo di affreschi si trova all’interno della cappella del campanile, oggi chiusa al pubblico ed esclusa dallo spazio della chiesa dopo gli interventi barocchi. Abbiamo quindi pensato di proporre una soluzione che permetta una più agevole fruizione della cappella, progettando un’illuminazione e un percorso d’accesso adeguati. Più complesso è il caso di San Nicolò al porto, individuata come ultima tappa del percorso. Si tratta in questo caso della riconfigurazione di un intero isolato, che nel tempo ha perso totalmente il suo significato urbano riducendosi ad una sorta di spartitraffico. Qui si rendeva necessaria inoltre la progettazione di una nuova chiesa, presentando quella attuale seri problemi statici.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il progetto di percorso urbano ‘S’intende per restauro qualsiasi intervento volto a conservare e a trasmettere al futuro, facilitandone la lettura e senza cancellarne le tracce del passaggio nel tempo, le opere d’interesse storico, artistico e ambientale; esso si fonda sul rispetto della sostanza antica e delle documentazioni autentiche costituite da tali opere, proponendosi, inoltre, come atto d’interpretazione critica non verbale ma espressa nel concreto operare’ (G.Carbonara) Celate all’interno di edifici privati, ritrovate quasi sempre fortuitamente, ai più sconosciute, le pitture murali del Trecento riminese necessitano un processo di valorizzazione. Si tratta di portarle alla luce una seconda volta creando un percorso di riscoperta di queste opere nascoste, di cui raramente si è più sentito parlare dopo il clamore sollevato dalla mostra del 1935 organizzata da Brandi. Si parla quindi di un percorso conoscitivo. Un percorso urbano che tocchi i luoghi dove queste sono ancora conservate: l’antica chiesa di San Michelino in foro (oggi divisa tra più proprietari privati), la chiesa di Sant’Agostino, la cappella del campanile della chiesa di Santa Maria in Corte, la cappella del Crocifisso in San Nicolò al porto. Le chiese costituiranno le tappe di un percorso che si articolerà attraverso le strade medievali della città. Si verrà a creare quindi un percorso non solo alla scoperta delle pitture murali del XIII e XIV secolo, ma alla scoperta della Rimini del Trecento, delle sue vie, del suo sviluppo urbano. Si affronterà il problema del restauro delle pitture murali, ma sempre preoccupandosi della buona conservazione e del mantenimento del monumento nel suo insieme. Pittura murale e architettura sono, come sostiene Philippot, inscindibili: trattando una pittura murale, il restauratore tratta sempre e solo una parte di un insieme più vasto, che costituisce il tutto al quale egli si dovrà riferire, tanto dal punto di vista estetico e storico, quanto dal punto di vista tecnico . Per ogni chiesa si prevederà quindi, oltre al progetto di restauro della pittura, anche un progetto di fruizione dello spazio architettonico e di riconfigurazione dello stesso, quando necessario, ragionando caso per caso. Si è deciso di porre come origine del percorso l’antica chiesa di San Michelino. La motivazione di questa scelta risiede nel fatto che in questo edificio si è individuato il luogo adatto ad ospitare uno spazio espositivo dove raccontare la Rimini del Trecento. Uno spazio espositivo al servizio della città, con la progettazione del quale si cercherà di restituire unità agli ambienti dell’antica chiesa, oggi così frazionati tra troppi proprietari. Da San Michelino si continuerà verso la chiesa di Sant’Agostino, dove si trovano affreschi del Trecento riminese già molto noti e studiati. Ciò che si rende necessario in questo caso è la riconfigurazione architettonica e spaziale degli affreschi della parte bassa della cappella del campanile, staccati e trasferiti su pannelli negli anni ’70, oltre alla previsione di un sistema di monitoraggio degli affreschi stessi. La terza tappa del percorso sarà la chiesa di Santa Maria in Corte. Il ciclo di affreschi si trova all’interno della cappella del campanile, oggi chiusa al pubblico ed esclusa dallo spazio della chiesa dopo gli interventi barocchi. Abbiamo quindi pensato di proporre una soluzione che permetta una più agevole fruizione della cappella, progettando un’illuminazione e un percorso d’accesso adeguati. Più complesso è il caso di San Nicolò al porto, individuata come ultima tappa del percorso. Si tratta in questo caso della riconfigurazione di un intero isolato, che nel tempo ha perso totalmente il suo significato urbano riducendosi ad una sorta di spartitraffico. Qui si rendeva necessaria inoltre la progettazione di una nuova chiesa, presentando quella attuale seri problemi statici.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il progetto di riqualificazione della Caserma Sani si ispira allʼinteresse nei confronti delle tematiche del recupero edilizio e urbano. Esso nasce dallʼintenzione di reintegrare unʼarea urbana in via di dismissione nel suo contesto attraverso lʼinserimento di nuove funzioni che rispondano alle esigenze di questa parte di città e nel contempo riqualificare i fabbricati esistenti attraverso un progetto di recupero e completamento che favorisca il dialogo del complesso esistente con il sistema urbano circostante. La volontà di riuso della maggioranza degli edifici facenti parte del vecchio impianto si basa su considerazioni legate alla natura stessa del sito: lʼintenzione è quella di conservarne la memoria, non tanto per il suo valore storico-architettonico, ma perché nel caso specifico della Caserma più che di memoria è opportuno parlare di scoperta, essendo, per propria natura militare, un luogo da sempre estraneo alla comunità e al suo contesto, chiuso e oscurato dal limite fisico del muro di cinta. La caserma inoltre si compone di edifici essenzialmente funzionali, di matrice industriale, la cui versatilità si legge nella semplicità e serialità morfologica, rendendoli “organismi dinamici” in grado di accogliere trasformazioni e cambi di funzione. Il riuso si muove in parallelo ai concetti di risignificazione e riciclaggio, dividendosi in modo egualmente efficace fra presupposti teorici e pratici. Esso costituisce una valida alternativa alla pratica della demolizione, nel caso in cui questa non sia specificatamente necessaria, e alle implicazione economiche e ambientali (smaltimento dei rifiuti, impiego dei trasporti e fondi economici, ecc.) che la accompagnano. Alla pratica del riuso si affianca nel progetto quella di completamento e ampliamento, arricchendo il vecchio sistema di edifici con nuove costruzioni che dialoghino discretamente con la preesistenza stabilendo un rapporto di reciproca complementarietà. Il progetto di riqualificazione si basa su più ampie considerazioni a livello urbano, che prevedono lʼintegrazione dellʼarea ad un sistema di attraversamento pedonale e ciclabile che colleghi da nord a sud le principali risorse verdi del quartiere passando per alcuni dei principali poli attrattori dellʼarea, quali la Stazione Centrale, il Dopolavoro Ferroviario adibito a verde attrezzato, il nuovo Tecno Polo che sorgerà grazie al progetto di riqualificazione previsto per lʼex Manifattura Tabacchi di Pier Luigi Nervi e il nuovo polo terziario che sorgerà dalla dismissione delle ex Officine Cevolani. In particolare sono previsti due sistemi di collegamento, uno ciclo-pedonale permesso dalla nuova pista ciclabile, prevista dal nuovo Piano Strutturale lungo il sedime della vecchia ferrovia che correrà da nord a sud collegando il Parco della Montagnola e in generale il centro storico al Parco Nord, situato oltre il limite viario della tangenziale. Parallelamente alla pista ciclabile, si svilupperà allʼinterno del tessuto un ampio viale pedonale che, dal Dopolavoro Ferroviario (parco attrezzato con impianti sportivi) collegherà la grande area verde che sorgerà dove ora giacciono i resti delle ex Industrie Casaralta, adiacenti alla Caserma Sani, già oggetto di bonifica e in via di dismissione, incontrando lungo il suo percorso differenti realtà e funzioni: complessi residenziali, terziari, il polo culturale e le aree verdi. Allʼinterno dellʼarea della Caserma sarà integrato agli edifici, nuovi e preesistenti, un sistema di piazze pavimentate e percorsi di attraversamento che lo riuniscono al tessuto circostante e favoriscono il collegamento da nord a sud e da est a ovest di zone della città finora poco coinvolte dal traffico pedonale, in particolare è il caso del Fiera District separato dal traffico veloce di Via Stalingrado rispetto alla zona residenziale della Bolognina. Il progetto lascia ampio spazio alle aree verdi, le quali costituiscono più del 50 % della superficie di comparto, garantendo una preziosa risorsa ambientale per il quartiere. Lʼintervento assicura lʼinserimento di una molteplicità di funzioni e servizi: residenze unifamiliari e uno studentato, uffici e commercio, una biblioteca, un auditorium e un polo museale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.