880 resultados para foto-Fenton


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A comparative study using different proportions of CeO2/C (4%, 9% and 13% CeO2) was performed to produce H2O2, a reagent used in the oxidation of organic pollutants and in electro-Fenton reactions for the production of the hydroxyl radical (OH center dot), a strong oxidant agent used in the electrochemical treatment of aqueous wastewater. The CeO2/C materials were prepared by a modified polymeric precursor method (PPM). X-ray diffraction analysis of the CeO2/C prepared by the PPM identified two phases. CeO2 and CeO2. The average size of the crystallites in these materials was close to 7 nm. The kinetics of the oxygen reduction reaction (ORR) were evaluated by the rotating ring-disk electrode technique. The results showed that the 4% CeO2/C prepared by the PPM was the best composite for the production of H2O2 in a 1 mol L-1 NaOH electrolyte solution. For this material, the number of electrons transferred and the H2O2 percentage efficiency were 3.1 and 44%, respectively. The ring-current of the 4% CeO2/C was higher than that of Vulcan carbon, the reference material for H2O2 production, which produced 41% H2O2 and transferred 3.1 electrons per molecule of oxygen. The overpotential for this reaction on the ceria-based catalyst was substantially lower (approximately 200 mV), demonstrating the higher catalytic performance of this material. Gas diffusion electrodes (GDE) containing the catalyst were used to evaluate the real amount of H2O2 produced during exhaustive electrolysis. The 4% CeO2/C GDE produced 871 mg L-1 of H2O2, whereas the Vulcan carbon GDE produced a maximum amount of only 407 mg L-1. Thus, the 4% CeO2/C electrocatalyst prepared by the PPM is a promising material for H2O2 electrogeneration in alkaline media. (C) 2011 Elsevier B.V. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem o objetivo de analisar as representações sociais que a imprensa de circulação nacional faz dos Sertões do Nordeste nas reportagens de alcance nacional. A pesquisa está fundamentada na teoria das Representações Sociais, imagem fotográfica e jornalismo. Trata-se de um estudo de caso que analisa as imagens fotográficas disponíveis pela agência Globo e o jornal O Globo em seu portal online de notícias. São analisadas as temáticas, títulos e subtítulos de todas as fotografias disponíveis no site, correspondentes ao tema Sertão no período de 2003 a 2010. O estudo evidenciou que as imagens denotam uma representação do Sertão como local de isolamento, de seca, miséria, sem acesso a tecnologia, a saneamento, com sistema precário de transporte e rudimentares práticas agrícolas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract Background Biofuels produced from sugarcane bagasse (SB) have shown promising results as a suitable alternative of gasoline. Biofuels provide unique, strategic, environmental and socio-economic benefits. However, production of biofuels from SB has negative impact on environment due to the use of harsh chemicals during pretreatment. Consecutive sulfuric acid-sodium hydroxide pretreatment of SB is an effective process which eventually ameliorates the accessibility of cellulase towards cellulose for the sugars production. Alkaline hydrolysate of SB is black liquor containing high amount of dissolved lignin. Results This work evaluates the environmental impact of residues generated during the consecutive acid-base pretreatment of SB. Advanced oxidative process (AOP) was used based on photo-Fenton reaction mechanism (Fenton Reagent/UV). Experiments were performed in batch mode following factorial design L9 (Taguchi orthogonal array design of experiments), considering the three operation variables: temperature (°C), pH, Fenton Reagent (Fe2+/H2O2) + ultraviolet. Reduction of total phenolics (TP) and total organic carbon (TOC) were responsive variables. Among the tested conditions, experiment 7 (temperature, 35°C; pH, 2.5; Fenton reagent, 144 ml H2O2+153 ml Fe2+; UV, 16W) revealed the maximum reduction in TP (98.65%) and TOC (95.73%). Parameters such as chemical oxygen demand (COD), biochemical oxygen demand (BOD), BOD/COD ratio, color intensity and turbidity also showed a significant change in AOP mediated lignin solution than the native alkaline hydrolysate. Conclusion AOP based on Fenton Reagent/UV reaction mechanism showed efficient removal of TP and TOC from sugarcane bagasse alkaline hydrolysate (lignin solution). To the best of our knowledge, this is the first report on statistical optimization of the removal of TP and TOC from sugarcane bagasse alkaline hydrolysate employing Fenton reagent mediated AOP process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le soluzioni tecnologiche rese oggi disponibili dalle discipline della moderna Geomatica, offrono opportunità di grande interesse per il rilevamento nel settore dei Beni Culturali, sia per quanto riguarda il momento primario del rilievo, cioè la fase di acquisizione del dato metrico, sia per quanto concerne la questione della rappresentazione per oggetti di interesse archeologico, artistico, architettonico. Lo studio oggetto della presente tesi si propone, sulla base di numerose esperienze maturate nel corso del Dottorato dal Laboratorio di Topografia e Fotogrammetria del DISTART, di affrontare e approfondire le problematiche connesse all’utilizzo della fotogrammetria digitale e del laser a scansione terrestre per applicazioni nell’ambito dei Beni Culturali. La ricerca condotta è prettamente applicata, quindi è stata primaria l’esigenza di avere a disposizione reali casi di studio su cui sperimentare le tecniche di interesse; è però importante sottolineare che questo è un campo in cui ogni esperienza presenta proprie caratteristiche e peculiarità che la rendono interessante e difficilmente descrivibile con schemi convenzionali e metodologie standardizzate, quindi le problematiche emerse hanno di volta in volta indirizzato e spinto la ricerca all’approfondimento di certi aspetti piuttosto che altri. A tal proposito è stato evidenziato dalle esperienze effettuate che il campo dei Beni Culturali è forse il più emblematico delle potenzialità rese oggi disponibili dalle moderne tecnologie della Geomatica, e soprattutto dalle possibilità offerte da un approccio integrato e multi – disciplinare di tecniche e tecnologie diverse; per questo nell’Introduzione si è voluto sottolineare questo aspetto, descrivendo l’approccio metodologico adottato in molti lavori in contesto archeologico, che include generalmente diverse tecniche integrate tra loro allo scopo di realizzare in modo veloce e rigoroso un rilievo multi – scala che parte dal territorio, passa attraverso l’area del sito archeologico e degli scavi, ed arriva fino al singolo reperto; questo approccio è caratterizzato dall’avere tutti i dati e risultati in un unico e ben definito sistema di riferimento. In questa chiave di lettura l’attenzione si è poi focalizzata sulle due tecniche che rivestono oggi nel settore in esame il maggiore interesse, cioè fotogrammetria digitale e laser a scansione terrestre. La struttura della tesi segue le fasi classiche del processo che a partire dal rilievo porta alla generazione dei prodotti di rappresentazione; i primi due capitoli, incentrati sull’acquisizione del dato metrico, riguardano quindi da un lato le caratteristiche delle immagini e dei sensori digitali, dall’altro le diverse tipologie di sistemi laser con le corrispondenti specifiche tecniche; sempre nei primi capitoli vengono descritte le caratteristiche metodologiche e tecnico – operative e le relative problematiche delle due tipologie di rilievo. Segue un capitolo sulle procedure di calibrazione delle camere digitali non professionali, imperniato sull’utilizzo di software diversi, commerciali e sviluppati in house per questo scopo, prestando attenzione anche agli strumenti che essi offrono in termini di risultati ottenibili e di controllo statistico sugli stessi. La parte finale della tesi è dedicata al problema della rappresentazione, con l’obiettivo di presentare un quadro generale delle possibilità offerte dalle moderne tecnologie: raddrizzamenti, ortofoto, ortofoto di precisione e infine modelli tridimensionali foto – realistici, generati a partire sia da dati fotogrammetrici sia da dati laser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le acque di vegetazione (AV) costituiscono un serio problema di carattere ambientale, sia a causa della loro elevata produzione sia per l’ elevato contenuto di COD che oscilla fra 50 e 150 g/l. Le AV sono considerate un refluo a tasso inquinante fra i più elevati nell’ambito dell’industria agroalimentare e la loro tossicità è determinata in massima parte dalla componente fenolica. Il presente lavoro si propone di studiare e ottimizzare un processo non solo di smaltimento di tale refluo ma anche di una sua valorizzazione, utlizzandolo come materia prima per la produzione di acidi grassi e quindi di PHA, polimeri biodegradabili utilizzabili in varie applicazioni. A tale scopo sono stati utilizzati due bioreattori anaerobici a biomassa adesa, di identica configurazione, con cui si sono condotti due esperimenti in continuo a diverse temperature e carichi organici al fine di studiare l’influenza di tali parametri sul processo. Il primo esperimento è stato condotto a 35°C e carico organico pari a 12,39 g/Ld, il secondo a 25°C e carico organico pari a 8,40 g/Ld. Si è scelto di allestire e mettere in opera un processo a cellule immobilizzate in quanto questa tecnologia si è rivelata vantaggiosa nel trattamento continuo di reflui ad alto contenuto di COD e carichi variabili. Inoltre si è scelto di lavorare in continuo poiché tale condizione, per debiti tempi di ritenzione idraulica, consente di minimizzare la metanogenesi, mediata da microrganismi con basse velocità specifiche di crescita. Per costituire il letto fisso dei due reattori si sono utilizzati due diversi tipi di supporto, in modo da poter studiare anche l’influenza di tale parametro, in particolare si è fatto uso di carbone attivo granulare (GAC) e filtri ceramici Vukopor S10 (VS). Confrontando i risultati si è visto che la massima quantità di VFA prodotta nell’ambito del presente studio si ha nel VS mantenuto a 25°C: in tale condizione si arriva infatti ad un valore di VFA prodotti pari a 524,668 mgCOD/L. Inoltre l’effluente in uscita risulta più concentrato in termini di VFA rispetto a quello in entrata: nell’alimentazione la percentuale di materiale organico presente sottoforma di acidi grassi volatili era del 54 % e tale percentuale, in uscita dai reattori, ha raggiunto il 59 %. Il VS25 rappresenta anche la condizione in cui il COD degradato si è trasformato in percentuale minore a metano (2,35 %) e questo a prova del fatto che l’acidogenesi ha prevalso sulla metanogenesi. Anche nella condizione più favorevole alla produzione di VFA però, si è riusciti ad ottenere una loro concentrazione in uscita (3,43 g/L) inferiore rispetto a quella di tentativo (8,5 g/L di VFA) per il processo di produzione di PHA, sviluppato da un gruppo di ricerca dell’università “La Sapienza” di Roma, relativa ad un medium sintetico. Si può constatare che la modesta produzione di VFA non è dovuta all’eccessiva degradazione del COD, essendo questa nel VS25 appena pari al 6,23%, ma piuttosto è dovuta a una scarsa concentrazione di VFA in uscita. Questo è di buon auspicio nell’ottica di ottimizzare il processo migliorandone le prestazioni, poiché è possibile aumentare tale concentrazione aumentando la conversione di COD in VFA che nel VS25 è pari a solo 5,87%. Per aumentare tale valore si può agire su vari parametri, quali la temperatura e il carico organico. Si è visto che il processo di acidogenesi è favorito, per il VS, per basse temperature e alti carichi organici. Per quanto riguarda il reattore impaccato con carbone attivo la produzione di VFA è molto ridotta per tutti i valori di temperatura e carichi organici utilizzati. Si può quindi pensare a un’applicazione diversa di tale tipo di reattore, ad esempio per la produzione di metano e quindi di energia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction 1.1 Occurrence of polycyclic aromatic hydrocarbons (PAH) in the environment Worldwide industrial and agricultural developments have released a large number of natural and synthetic hazardous compounds into the environment due to careless waste disposal, illegal waste dumping and accidental spills. As a result, there are numerous sites in the world that require cleanup of soils and groundwater. Polycyclic aromatic hydrocarbons (PAHs) are one of the major groups of these contaminants (Da Silva et al., 2003). PAHs constitute a diverse class of organic compounds consisting of two or more aromatic rings with various structural configurations (Prabhu and Phale, 2003). Being a derivative of benzene, PAHs are thermodynamically stable. In addition, these chemicals tend to adhere to particle surfaces, such as soils, because of their low water solubility and strong hydrophobicity, and this results in greater persistence under natural conditions. This persistence coupled with their potential carcinogenicity makes PAHs problematic environmental contaminants (Cerniglia, 1992; Sutherland, 1992). PAHs are widely found in high concentrations at many industrial sites, particularly those associated with petroleum, gas production and wood preserving industries (Wilson and Jones, 1993). 1.2 Remediation technologies Conventional techniques used for the remediation of soil polluted with organic contaminants include excavation of the contaminated soil and disposal to a landfill or capping - containment - of the contaminated areas of a site. These methods have some drawbacks. The first method simply moves the contamination elsewhere and may create significant risks in the excavation, handling and transport of hazardous material. Additionally, it is very difficult and increasingly expensive to find new landfill sites for the final disposal of the material. The cap and containment method is only an interim solution since the contamination remains on site, requiring monitoring and maintenance of the isolation barriers long into the future, with all the associated costs and potential liability. A better approach than these traditional methods is to completely destroy the pollutants, if possible, or transform them into harmless substances. Some technologies that have been used are high-temperature incineration and various types of chemical decomposition (for example, base-catalyzed dechlorination, UV oxidation). However, these methods have significant disadvantages, principally their technological complexity, high cost , and the lack of public acceptance. Bioremediation, on the contrast, is a promising option for the complete removal and destruction of contaminants. 1.3 Bioremediation of PAH contaminated soil & groundwater Bioremediation is the use of living organisms, primarily microorganisms, to degrade or detoxify hazardous wastes into harmless substances such as carbon dioxide, water and cell biomass Most PAHs are biodegradable unter natural conditions (Da Silva et al., 2003; Meysami and Baheri, 2003) and bioremediation for cleanup of PAH wastes has been extensively studied at both laboratory and commercial levels- It has been implemented at a number of contaminated sites, including the cleanup of the Exxon Valdez oil spill in Prince William Sound, Alaska in 1989, the Mega Borg spill off the Texas coast in 1990 and the Burgan Oil Field, Kuwait in 1994 (Purwaningsih, 2002). Different strategies for PAH bioremediation, such as in situ , ex situ or on site bioremediation were developed in recent years. In situ bioremediation is a technique that is applied to soil and groundwater at the site without removing the contaminated soil or groundwater, based on the provision of optimum conditions for microbiological contaminant breakdown.. Ex situ bioremediation of PAHs, on the other hand, is a technique applied to soil and groundwater which has been removed from the site via excavation (soil) or pumping (water). Hazardous contaminants are converted in controlled bioreactors into harmless compounds in an efficient manner. 1.4 Bioavailability of PAH in the subsurface Frequently, PAH contamination in the environment is occurs as contaminants that are sorbed onto soilparticles rather than in phase (NAPL, non aqueous phase liquids). It is known that the biodegradation rate of most PAHs sorbed onto soil is far lower than rates measured in solution cultures of microorganisms with pure solid pollutants (Alexander and Scow, 1989; Hamaker, 1972). It is generally believed that only that fraction of PAHs dissolved in the solution can be metabolized by microorganisms in soil. The amount of contaminant that can be readily taken up and degraded by microorganisms is defined as bioavailability (Bosma et al., 1997; Maier, 2000). Two phenomena have been suggested to cause the low bioavailability of PAHs in soil (Danielsson, 2000). The first one is strong adsorption of the contaminants to the soil constituents which then leads to very slow release rates of contaminants to the aqueous phase. Sorption is often well correlated with soil organic matter content (Means, 1980) and significantly reduces biodegradation (Manilal and Alexander, 1991). The second phenomenon is slow mass transfer of pollutants, such as pore diffusion in the soil aggregates or diffusion in the organic matter in the soil. The complex set of these physical, chemical and biological processes is schematically illustrated in Figure 1. As shown in Figure 1, biodegradation processes are taking place in the soil solution while diffusion processes occur in the narrow pores in and between soil aggregates (Danielsson, 2000). Seemingly contradictory studies can be found in the literature that indicate the rate and final extent of metabolism may be either lower or higher for sorbed PAHs by soil than those for pure PAHs (Van Loosdrecht et al., 1990). These contrasting results demonstrate that the bioavailability of organic contaminants sorbed onto soil is far from being well understood. Besides bioavailability, there are several other factors influencing the rate and extent of biodegradation of PAHs in soil including microbial population characteristics, physical and chemical properties of PAHs and environmental factors (temperature, moisture, pH, degree of contamination). Figure 1: Schematic diagram showing possible rate-limiting processes during bioremediation of hydrophobic organic contaminants in a contaminated soil-water system (not to scale) (Danielsson, 2000). 1.5 Increasing the bioavailability of PAH in soil Attempts to improve the biodegradation of PAHs in soil by increasing their bioavailability include the use of surfactants , solvents or solubility enhancers.. However, introduction of synthetic surfactant may result in the addition of one more pollutant. (Wang and Brusseau, 1993).A study conducted by Mulder et al. showed that the introduction of hydropropyl-ß-cyclodextrin (HPCD), a well-known PAH solubility enhancer, significantly increased the solubilization of PAHs although it did not improve the biodegradation rate of PAHs (Mulder et al., 1998), indicating that further research is required in order to develop a feasible and efficient remediation method. Enhancing the extent of PAHs mass transfer from the soil phase to the liquid might prove an efficient and environmentally low-risk alternative way of addressing the problem of slow PAH biodegradation in soil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi tratta delle analisi di sicurezza delle intersezioni sia esistenti, sia di nuova progettazione. Nel primo capitolo vengono definite le intersezioni secondo il D.M. 19-04-06 “Norme funzionali e geometriche per la costruzione delle intersezioni stradali”. Sono descritte le manovre possibili, le problematiche ed i punti di conflitto che si vengono a creare durante l’attraversamento, definendo le varie tipologie. Successivamente si affronta una classificazione tipologica delle intersezioni rappresentando per mezzo di una matrice simbolica tutti i possibili nodi. Questi vengono suddivisi in base alla possibilità di connessione. Ampio spazio è dato alla descrizione dell’intersezione a raso dove vengono esaminate le caratteristiche geometriche tra cui le configurazioni delle corsie e le tipologie di isole divisionali. Vengono esaminate le particolarità dell’intersezione semaforizzata definendo il ciclo semaforico e gli elementi che lo compongono, la fasatura, il livello di servizio (LOS), il ritardo, definendo gli elementi che lo compongono per mezzo di formule empiriche. Nella seconda parte del capitolo viene descritta l’intersezione a rotatoria in base al D.M. 19-04-06. Inizialmente si introduce l’argomento con nozioni storiche a carattere informativo, quindi si da una classificazione generale degli elementi che la caratterizzano. Viene descritta l’isola divisionale spiegandone la tipologia costruttiva e rappresentando i parametri di classificazione geometrica. A titolo di esempio sono state inserite varie rappresentazioni di rotatorie suddivise per tipologie costruttive. Nell’ultima parte viene affrontato l’elemento rotatoria definendo la distanza di visibilità e i criteri per il calcolo della capacità. Il secondo capitolo parla delle analisi di sicurezza delle intersezioni. Inizialmente viene descritta la circolare 3699 “Linee guida per le analisi di sicurezza delle strade” definendo il concetto di analisi di sicurezza ed esaminando le differenze tra le due tipologie di analisi: Road safety review e Road safety audit. In seguito si descrivono gli obbiettivi dell’analisi di sicurezza, vantaggi e svantaggi e la valutazione dell’approccio concettuale. Viene descritta più approfonditamente la tipologia del Road safety review evidenziando l’utilità, gli elementi che la caratterizzano, le figure professionali che prendono parte a queste analisi con le azioni che devono seguire. Dopo si analizzano i criteri per affrontare gli studi sulla sicurezza e le fasi per le procedure di analisi. Si procede con la descrizione di una tipologia di ispezione, analizzando le problematiche e la stesura del rapporto di analisi con la descrizione dei tempi di attuazione. Nella parte centrale del capitolo viene descritta la direttiva del parlamento europeo e del consiglio sulla gestione della sicurezza delle infrastrutture stradali con i relativi obbiettivi che si prefigge. Vengono riportati i 13 articoli che si compone con i relativi 4 allegati inerenti a: - Valutazione di impatto sulla sicurezza; - Audit della sicurezza stradale; - Gestione dei tratti stradali ad alto rischio, gestione della sicurezza della rete e ispezione di sicurezza; - Dati che devono figurare nelle relazioni di incidenti. L’ultimo argomento preso in esame riguarda le norme per gli interventi di adeguamento delle strade esistenti. Vengono descritte le categorie di intervento e gli obbiettivi da raggiungere distinguendoli in obbiettivi prestazionali, di funzionalità operativa e sicurezza della circolazione. Vengono affrontate le caratteristiche e le differenze tra interventi strutturali e non strutturali con i relativi obbiettivi valutando gli effetti che si ottengono dall’adeguamento delle strade. Successivamente vengono descritte le campagne di monitoraggio con le relative procedure e tempistiche. Infine si valutano le responsabilità degli interventi. Nel capitolo 3 viene descritta l’analisi dello stato di fatto. Si è proceduto con la classificazione della infrastruttura descrivendo i tratti di strada interessati dall’intervento ed utilizzando delle foto per individuare alcune problematiche emerse nell’intersezione. Utilizzando l’elaborato “azzonamento del territorio comunale di Carpi” è stata descritta la zona oggetto di studio. Poi con la macroclassificazione del territorio con scala 1:10000 viene mostrato graficamente il territorio urbanizzato, in corso di urbanizzazione e a destinazione urbana. L’ultimo elaborato preso in esame riguarda la classificazione acustica del territorio. Infine si è proceduto con l’analisi del traffico e di incidentalità. Utilizzando i dati rilevati dalla polizia municipale del comune di Carpi sono stati costruiti i grafici e studiati gli andamenti nel periodo di tempo di riferimento dal 2000 al 2008. Utilizzando poi i dati dei flussi di traffico si sono analizzati le tipologie e i volumi di traffico nell’intersezione. Nell’ultimo capitolo viene studiato il Road safety review dell’intersezione. Si procede con una descrizione generale dell’intersezione, e si prosegue poi con l’individuazione delle problematiche lungo il tracciato. Inizialmente sono state scattate numerose foto nella zona interessata poi sono state divise per tipologia di problema. Per ogni problema si è cercato una soluzione descrivendo e motivando la scelta. Nelle conclusioni si sono descritti i risultati ottenuti nell’analisi di sicurezza elencando le principali raccomandazioni emerse dall’analisi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggetto della ricerca è il tema dello spazio delle centrali idroelettriche costruite nella prima metà del Novecento dagli architetti Giovanni Muzio e Piero Portaluppi. L’individuazione del tema sorge dalla volontà di indagare quali siano stati gli sviluppi dal punto di vista architettonico all’interno di un genere così specifico durante un periodo di tempo in cui gli stili architettonici e le tendenze hanno subito stravolgimenti ed evoluzioni che ancora oggi trovano una difficile connotazione e definizione precisa. L’analisi dell’architettura delle centrali idroelettriche, effettuata ripercorrendo le principali vicende del settore idroelettrico dalla fine del secolo scorso al secondo dopoguerra, oltre a considerare il rapporto con il contesto territoriale e culturale del nostro Paese vuole prendere in considerazione anche il particolare rapporto che in più casi si è venuto a creare tra committenti e progettisti. Compito della tesi è rileggere un settore poco indagato finora e capire se vi sia stata effettivamente una evoluzione architettonica dal punto di vista tipologico o se la centrale sia stata sempre affrontata come semplice esercizio di “vestizione” di un involucro precostituito da precise esigenze tecniche. La ricerca infatti si pone come obiettivo lo studio delle centrali non solo dal punto di vista tipologico e spaziale dei suoi principali elementi, ma si pone come obiettivo anche lo studio della loro distribuzione nel sito in cui sono sorte, distribuzione che spesso ha portato alla formazione di una sorta di vera e propria “città elettrica”, in cui la composizione dei vari elementi segue una logica compositiva ben precisa. Dal punto di vista del contributo originale la ricerca vuole proporre una serie di riflessioni ed elaborati inerenti alcune centrali non ancora indagate. Nel caso specifico di Portaluppi l’apporto originale consiste nell’aver portato alla luce notizie inerenti centrali che sono sempre state poste in secondo piano rispetto le ben più note e studiate centrali della Val d’Ossola. Nel caso invece di Muzio il contributo consiste in una analisi approfondita e in una comparazione di documenti che di solito sono sempre stati pubblicati come semplice apparato iconografico, ma che messi a confronto danno una lettura di quelle che sono state le fasi e le elaborazioni progettuali apportate dall’autore. Il tema della ricerca è stato affrontato poi attraverso una lettura delle fonti dirette relative agli scritti degli autori, con una contemporanea lettura di testi, articoli e interventi tratti dalle riviste appartenenti al periodo in esame per comprendere al meglio il panorama culturale e architettonico che hanno fatto da scenario alle esperienze di entrambe le figure oggetto di studio. Infine la ricerca si è concentrata sull’analisi di alcune opere in particolare - due centrali idroelettriche per ciascun autore oggetto della tesi - scelte perché considerate rappresentative sia per impianto spaziale e tipologico, sia per le scelte compositive e stilistiche adottate. La lettura dei manufatti architettonici scelti è stata condotta con l’analisi di copie di elaborati grafici originali, foto d’epoca e altri documenti reperiti grazie ad una ricerca condotta in vari archivi. Le centrali scelte nell’ambito delle esperienze maturate da Muzio e Portaluppi sono state individuate per rappresentare il quadro relativo allo sviluppo e alla ricerca di un nuovo linguaggio formale da adottare nell’ambito dell’architettura di questi manufatti. Per entrambi i protagonisti oggetto della ricerca sono state individuate due centrali in grado di dare una visione il più possibile completa dell’evoluzione della tematica delle centrali idroelettriche all’interno della loro esperienza, prendendo in considerazione soprattutto gli aspetti legati all’evoluzione del loro linguaggio compositivo e stilistico. L’individuazione delle centrali da analizzare è stata dettata prendendo in considerazione alcuni fattori come il tipo di impianto, le relazioni e confronto con il contesto geografico e naturale e le soluzioni adottate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il mio elaborato finale si chiama “Restauro tra storia e progetto”, in cui rimetto a sistema, quanto appreso nelle materie di restauro, partendo dal laboratorio di restauro, dove la Prof. Antonella Ranaldi ci ha fatto trattare il complesso monumentale dell’ex convento di Sant’ Agostino a Cesena. Partendo da una lunga ricerca bibliografica, abbiamo individuato gli interventi da effettuare sul prospetto lungo via delle Mura di Sant’ Agostino ed effettuato il rilievo che ci ha permesso l’elaborazione del progetto. Gli interventi realizzati nel corso dei secoli costituiscono un esempio inquietante perchè se pure con esiti diversi ed in parte anche positivi, hanno però complessivamente portato alla situazione attuale, ormai compromessa per la definitiva perdita di molte interessanti tracce storiche. Data l'impossibilità di restituire al prospetto la sua immagine originaria abbiamo deciso di effettuare la sagramatura, che ha cancellato le stratificazioni che si sono succedute nei vari periodi storici. Abbiamo dato al prospetto una nuova immagine, riportando il prospetto ad un periodo storico non esattamente datato. L'illuminazione di questa preziosa facciata ha voluto essere un elemento discreto, capace di porre in risalto gli elementi architettonici e consentire, anche al calare del sole, un'intensa esperienza emotiva. In ogni caso si vuole evitare una scenografia serale eccessiva o artificiosa , e illuminare la facciata in maniera uniforme. Per fare questo si sono scelti apparecchi di illuminazione dotati di ottica asimmetrica, in modo da indirizzare il fascio di luce solo sulle superfici da illuminare e di ridurre così al minimo l'inquinamento luminoso. L'illuminazione omogenea della facciata in mattoni avviene attraverso riflettori con ottica larga, vetro allungante in verticale e schermo antiabbagliamento, posizionati su appositi pali (due pezzi per palo, paralleli alla facciata) situati dall'altra parte della strada di via delle mura. Mentre le lesene e il basamento sono illuminati da riflettori con condensatore ottico incassati nel terreno o nascosti nella parte superiore della cornice, con distribuzione della luce per un'altezza di circa 7 metri. Si è scelto di utilizzare sorgenti a luce bianca per mettere in risalto i materiali della facciata, senza alterarne i colori già di per se saturi. Abbiamo previsto nonostante lo stato di degrado, di recuperare il portone e le porte. Le parti mancanti vengono integrate con parti in legno della stessa essenza. Tutte le forature verranno poi tamponate con adeguati stucchi. Si ritiene fondamentale, in termini di restauro conservativo, mantenere ogni elemento che ancora sia in grado di svolgere la sua funzione. E' evidente in facciata il filo dell'impianto elettrico. E' stato pensato di farlo scorrere all'interno di una canalina, di dimensioni 4,5 x 7 cm, posizionata sopra il cornicione, nascosta alla vista del prospetto. Le gronde e i pluviali sono stati sostituiti durante l'ultimo intervento di rifacimento delle coperture, tuttavia non è stato studiato un posizionamento adeguato dei pluviali. Infatti, alcuni di questi, sopratutto quelli del prospetto principale sono posizionati senza alcun ordine. In alcuni casi i pluviali risultano essere scarsi con conseguente allagamento delle gronde e colate di acqua piovana sul muro. Nel nostro progetto si prevede di posizionare gli scarichi delle gronde sui lati, in maniera tale da non ostruire la facciata, inoltre vengono aumentati i pluviali per la gronda più alta. La seconda parte riguarda il restauro del borgo di Castelleale, che abbiamo trattato con il Prof. Andrea Ugolini nel laboratorio di sintesi finale. Il tema del corso ha previsto una prima fase di studio comprendente la ricerca storica e bibliografica, l’inquadramento dell’oggetto nel contesto urbano, la redazione delle piante di fase e ricostruzioni planivolumetriche nelle varie fasi storiche. Nella seconda fase abbiamo effettuato il rilievo, fatto foto esterne e interne di dettaglio per l’inquadramento del tema e delle sue caratteristiche architettoniche, studiato le principali cause di degrado e alterazione dei materiali da costruzione redigendo le tavole del degrado e dello stato di conservazione. Nella fase progettuale abbiamo deciso di effettuare un minimo intervento sul rudere, ripristinando la copertura crollata attraverso una copertura moderna sostenuta da pilastri, che vanno a costituire una struttura staccata rispetto al rudere. La terza parte riguarda l’efficienza energetica, il tema che ho affrontato sotto la guida del Prof. Kristian Fabbri in occasione dell’elaborato finale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro nasce principalmente da un legame affettivo e di parentela che mi lega alla figura di Mario Giacomelli e alla sua grande opera di fotografo che lo ha portato a raggiungere un ruolo fondamentale nella storia della fotografia contemporanea. Ricordo che sin da quando ero bambino rimanevo affascinato dalle sue opere, da quei paesaggi fotografati in bianco e nero, da quelle sagome dei pretini che sembrano danzare nel vuoto, il tutto però senza capire la vera importanza di quello che avevo davanti ai miei occhi e ignorando completamente tutto l’interesse, le critiche e i dibattiti che quegli scatti accendevano in quegli anni, al punto di venire addirittura esposti in quello che si può definire il museo di arte moderna per antonomasia, ovvero il MoMa, in fondo per me non era altro che uno zio. Il ricordo mi porta nella sua piccola e buia Tipografia Marchigiana, in pieno centro storico a Senigallia, proprio dietro il Municipio, dove lo trovavo sempre indaffarato con timbri, foto e oggetti di ogni tipo, sommerso in un caos primordiale. È incredibile pensare come in quel minuscolo negozio siano passati tutti i più grandi personaggi della fotografia italiana, quali Giuseppe Cavalli, Ferruccio Ferroni, Gianni Berengo Gardin, Ferdinando Scianna; dietro quella facciata di piccola bottega si nascondeva un universo parallelo che entrava in contatto con le più importanti gallerie e musei di arte contemporanea del mondo. Oggi al suo posto c’è una Parrucchieria. Molte cose sono cambiate, io ho capito, aimè in ritardo, l’importanza del personaggio che ho avuto la fortuna di conoscere e di avere come parente. La città stessa si è accorta solo dopo la morte, come spesso accade, di quale formidabile artista ha cresciuto, un artista che è sempre rimasto fedele alla sua terra di origine, che ha rappresentato una fonte inesauribile di spunti per la sua opera fotografica. A quel punto si è scatenato un turbinio di conferenze, mostre e pubblicazioni sul lavoro di Giacomelli, tanto che sarebbe rimasto impossibile a chiunque non capire il peso che questa figura ha ancora oggi per la città. Proprio lo scorso Novembre è ricorso il decennale della sua scomparsa e in questa occasione si è dato il via ad una infinita serie di iniziative, mostre, conferenze e pubblicazioni dedicate alla figura del fotografo senigalliese, ribadendo la necessità per la città di dotarsi di uno spazio idoneo ad ospitare questi eventi. In una recente intervista condotta dal quotidiano Il Resto del Carlino, Simone Giacomelli, figlio del fotografo, ha sottolineato l’urgenza della creazione di uno spazio dedicato alle fotografie del padre “Io lavoro molto con l'estero e sono in contatto con appassionati che arrivano da tutto il mondo per ammirare le foto di Giacomelli. C'è un gruppo di studenti che mi ha contattato dall'Australia. Ho dovuto dire di aspettare perché in città c'è una raccolta di foto al Museo mezzadria ed una parte al Museo dell'informazione. Manca un luogo dove si possa invece vedere tutta la produzione.”. Con queste premesse il progetto per un Centro Internazionale della Fotografia non poteva che essere a Senigallia, non tanto per il fatto di essere la mia città, alla quale sono molto legato, quanto per l’essere stata la culla di un grande artista quale Mario Giacomelli, dalla quale non si è mai voluto allontanare e che ha rappresentato per lui la fonte di ispirazione di quasi tutte le sue opere. Possiamo dire che grazie a questo personaggio, Senigallia è diventata la città della Fotografia, in quanto non passa settimana senza che non venga presentata una nuova iniziativa in ambito fotografico e non vengano organizzate mostre di fotografi di calibro internazionale quali Henri Cartier Bresson, Ara Guler, etc… Ecco quindi motivato il titolo di Internazionale attribuito al museo, in quanto da questo cuore pulsante si dovranno creare una serie di diramazioni che andranno a collegare tutti i principali centri di fotografia mondiali, favorendo lo scambio culturale e il dibattito. Senigallia è una città di modeste dimensioni sulla costa adriatica, una città dalle grandi potenzialità e che fa del turismo sia balneare che culturale i suoi punti di forza. La progettazione di questa sede museale mi ha permesso di affrontare e approfondire lo studio storico della città nella sua evoluzione. Da questa analisi è emerso un caso molto particolare ed interessante, quello di Piazza Simoncelli, un vuoto urbano che si presenta come una vera e propria lacerazione del tessuto cittadino. La piazza infatti è stata sede fino al 1894 di uno dei quattro lotti del ghetto ebraico. Cambia quindi il ruolo del sito. Ma la mancata capacità aggregativa di questo vuoto, data anche dal fatto della mancanza di un edificio rappresentativo, ne muta il ruolo in parcheggio. E’ la storia di molti ghetti italiani inseriti in piani di risanamento che vedevano la presenza del costruito antecedente, come anomalia da sanare. E’ la storia del ghetto di Roma o di quello di Firenze, che sorgeva nel luogo dell’attuale Piazza della Repubblica. Tutti sventrati senza motivazioni diverse che non la fatiscenza dell’aggregato. A Senigallia il risultato è stato una vera e propria lacerazione del tessuto urbano, giungendo alla produzione di un vuoto oppositivo al resto della città, che ha portato la perdita della continuità spaziale, se non si vuole poi far riferimento a quella culturale. Il mio intervento quindi vede nel legame con la storia e con l’identità del luogo un punto fondamentale di partenza. Da queste basi ho cercato di sviluppare un progetto che ha come presupposto il forte legame con la memoria del luogo e con le architetture locali. Un progetto che possa rappresentare un polo culturale, un cuore pulsante dove poter sviluppare e approfondire le conoscenze fotografiche, dal quale poter entrare in contatto con tutti i principali centri dedicati alla fotografia e nel quale poter tenere sempre vivo il ricordo di uno dei più importanti artisti che la città ha avuto la fortuna di crescere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggigiorno si osserva a livello mondiale un continuo aumento dei consumi di acqua per uso domestico, agricolo ed industriale che dopo l’impiego viene scaricata nei corpi idrici (laghi, fiumi, torrenti, bacini, ecc) con caratteristiche chimico fisiche ed organolettiche completamente alterate, necessitando così di specifici trattamenti di depurazione. Ricerche relative a metodi di controllo della qualità dell’acqua e, soprattutto, a sistemi di purificazione rappresentano pertanto un problema di enorme importanza. I trattamenti tradizionali si sono dimostrati efficienti, ma sono metodi che operano normalmente trasferendo l’inquinante dalla fase acquosa contaminata ad un’altra fase, richiedendo perciò ulteriori processi di depurazione. Recentemente è stata dimostrata l’efficacia di sistemi nano strutturati come TiO2-Fe3O4 ottenuto via sol-gel, nella foto-catalisi di alcuni sistemi organici. Questo lavoro di tesi è rivolto alla sintesi e caratterizzazione di un catalizzatore nanostrutturato composito costituito da un core di Fe3O4 rivestito da un guscio di TiO2 separate da un interstrato inerte di SiO2, da utilizzare nella foto-catalisi di sistemi organici per la depurazione delle acque utilizzando un metodo di sintesi alternativo che prevede un “approccio” di tipo colloidale. Partendo da sospensioni colloidali dei diversi ossidi, presenti in commercio, si è condotta la fase di deposizione layer by layer via spray drying, sfruttando le diverse cariche superficiali dei reagenti. Questo nuovo procedimento permette di abbattere i costi, diminuire i tempi di lavoro ed evitare possibili alterazioni delle proprietà catalitiche della titania, risultando pertanto adatto ad una possibile applicazione su scala industriale. Tale sistema composito consente di coniugare le proprietà foto-catalitiche dell’ossido di titanio con le proprietà magnetiche degli ossidi di ferro permettendo il recupero del catalizzatore a fine processo. Il foto-catalizzatore è stato caratterizzato durante tutte la fasi di preparazione tramite microscopia SEM e TEM, XRF, Acusizer, spettroscopia Raman e misure magnetiche. L’attività foto-calitica è stata valutata con test preliminari utilizzando una molecola target tipo il rosso di metile in fase acquosa. I risultati ottenuti hanno dimostrato che il sistema core-shell presenta inalterate sia le proprietà magnetiche che quelle foto-catalitiche tipiche dei reagenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il mio lavoro di Tesi prende in considerazione la possibilità di riportare alla vita un antico luogo che ha smarrito il suo senso nella città contemporanea. Si tratta dell’area della vasca dello Hauz-i-Shamsi,suggestiva per il legame forte con l’elemento acqua. Il tema progettuale è quello di mantenere questa zona come fonte attrattiva turistica poiché sede del Museo della città di Delhi, riconnettendolo con le altre aree di interesse e con i villaggi circostanti, diventando insieme al parco archeologico di Mehrauli un grande luogo socio culturale della collettività. Risulta evidente di conseguenza, che l'architettura dell'edificio collettivo, o più semplicemente edificio pubblico, si lega indissolubilmente alla vita civile e al suo sviluppo. In tal senso l'analisi storica è il primo momento di un lavoro che tende a definirsi nell'ambito più propriamente disciplinare, progettuale, attraverso l'analisi del ruolo urbano di tali edifici. Per questo motivo i capitoli sono così suddivisi: nel primo si riportano brevi cenni sulla storia dell’India, per poi concentrarsi sulla storia delle evoluzioni urbane di Delhi fino ad arrivare alla progettazione nel XX secolo di Nuova Delhi, esempio di città di fondazione. Nel secondo capitolo si riporta un’analisi dell’area di Mehrauli con un breve elenco dei principali monumenti, fondamentali per capire l’importanza del Parco archeologico, luogo indicato come Patrimonio dell’UNESCO. Ritengo che il viaggio in India sia per un architetto un’esperienza travolgente: non a caso questa tappa ha segnato profondamente le opere e il lavoro di due maestri quali Louis I. Kahn e Le Corbusier. Ho dedicato, infatti, il terzo capitolo ad alcune considerazioni su quest’argomento. Il quarto capitolo vuole essere un’analisi delle principali architetture indiane quali padiglioni, moschee, templi sacri. Nella cultura indiana l’architettura è legata alle religioni del paese e credo che si possano capire le architetture solo dopo aver compreso la complessità del panorama religioso. Si sono analizzati anche i principi compositivi in particolare il ruolo delle geometrie sia nelle architetture tipiche, sia nella pianificazione delle città di fondazione. Il quinto capitolo è un approfondimento sul rapporto architettura-acqua. Prima con brevi cenni e foto suggestive sul rapporto nella storia dell’architettura, poi con spiegazioni sul ruolo sacro dell’acqua in India. Il sesto capitolo, infine, è un approfondimento sul progetto del Museo della città di Delhi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this Ph.D. project has been the photophysical and photochemical characterization of new photo- and redox-active supramolecular systems. In particular we studied two different classes of compounds: metal complexes and dendrimers. Two different families of bis-cyclometalated neutral Ir(III) complexes are presented and their photophysical properties are discussed. The first family of complexes contains two 2-phenylpyridyl (ppy) or 2-(4,6-difluorophenyl)pyridyl (F2ppy) cyclometalated ligands and an ancillary ligand constituted by a phenol-oxazoline (phox), which can be substituted in the third position with a fluorine group (Fphox). In the second part of this study, we present another family of bis-cyclometalated Ir(III) complexes in which the ancillary ligand could be a chiral or an achiral bis-oxazoline (box). We report on their structural, electrochemical, photophysical, and photochemical properties. Complexes containing phox and Fphox ancillary ligands show blue luminescence with very high quantum yield, while complexes with box ligands do not show particularly interesting photophysical properties. Surprisingly these complexes give an unexpected photoreaction when irradiated with UV light in presence of dioxygen. This photoreaction originates a stable, strong blue emitting and particularly interesting photoproduct. Three successive generations of a family of polyethyleneglycol (PEG)-coated Pd(II) tetrabenzoporphyrin (PdTBP)-based dendritic nanoprobes are presented, and their ability to sensitize singlet oxygen and inflict cellular photodamage are discussed. It was found that the size of the dendrimer has practically no effect on the singlet oxygen sensitization efficiency, that approximate the unity, in spite of the strong attenuation of the triplet quenching rate with an increase in the dendrimer generation. Nevertheless, when compared against a commonly used singlet oxygen sensitizer, as Photofrin, the phosphorescent probes were found to be non-phototoxic. The lack of phototoxicity is presumably due to the inability of PEGylated probes to associate with cell surfaces and/or penetrate cellular membranes. The results suggest that protected phosphorescent probes can be safely used for oxygen measurements in biological systems in vivo. A new family of two photoswitchable (G0(Azo) and G1(Azo)) dendrimers with an azobenzene core, two cyclam units as coordination sites for metal ions, and luminescent naphthalene units at the periphery have been characterized and their coordination abilities have been studied. Because of their proximity, the various functional groups of the dendrimer may interact, so that the properties of the dendrimers are different from those exhibited by the separated functional units. Both the naphthalene fluorescence and the azobenzene photoisomerization can be observed in the dendrimer, but it has been shown that (i) the fluorescent excited state of the naphthalene units is substantially quenched by excimer and exciplex formation and by energy transfer to the azobenzene units, and (ii) in the latter case the fluorescence quenching is accompanied by the photosensitized isomerization of the trans → cis, and, with higher efficiency, the cis → trans reaction. Complexation of these dendrimers, both trans and cis isomers, with Zn(II) ions shows that complexes of 1:1 and 2:1 metal per dendrimer stoichiometry are formed showing different photophysical and photochemical properties compared to the corresponding free ligands. Practically unitary efficiency of the sensitized isomerization of trans → cis and cis → trans reaction is observed, as well as a slight increase in the naphthalene monomer emission. These results are consistent with the coordination of the cyclam amine units with Zn(II), which prevents exciplex formation. No indication of a concomitant coordination of both cyclam to a single metal ion has been obtained both for trans and cis isomer.