1000 resultados para Congregazione delle Scuole di Caritáa.
Resumo:
Punto di partenza per il lavoro presentato, sono le tematiche legate alle pratiche di consumo di cibo in un’ottica che superi una semplice visione utilitaristica delle stesse, mentre viene evidenziato invece il più profondo rapporto uomo-cibo e i fenomeni di socializzazione che ne scaturiscono. Si trovano pertanto a coniugarsi la sociologia dei consumi e la sociologia della cultura. La base per questa visione del cibo e delle pratiche di produzione e consumo ad esso collegate è l’ipotesi che nel rapporto uomo-cibo sia individuabile un livello di significato superiore al mero utilitarismo/nutrizionismo, che si compone di una dimensione strutturale, una dimensione simbolica ed una dimensione metaforica. Il cibo, e di conseguenza tutte le pratiche ad esso collegate (produzione, elaborazione, consumo), rientrano pertanto in maniera naturale nella categoria “cultura”, e quindi, accostandoci al paradigma del passaggio da natura a società, attraverso il cibo si crea e si alimenta la socialità del consorzio umano, e quindi l’umanità stessa. Accostando a queste concettualizzazioni l’idea che il consumo in generale possa diventare una prassi tramite cui esperire una più diffusa ricerca di sostenibilità nello sviluppo del territorio, (facendosi carico delle conseguenze socio-ambientali derivanti dalla fruizione di determinati oggetti piuttosto che altri), si è sviluppata l’ipotesi che al consumo alimentare possa competere un ruolo precipuamente attivo nella definizione di pratiche sociali orientate alla sostenibilità, capaci cioè di integrare attraverso il consumo – e in relazione all’indebolimento delle tradizionali agenzie di socializzazione – quella perdita di senso civico e solidarietà organizzata che sperimentiamo nelle prassi di vita quotidiana. Sul piano operativo, la tesi è articolata in sei capitoli: • Il percorso presentato prende le mosse dalla considerazione che il cibo, inteso in un’ottica sociologica, costituisce un fattore culturale non irrilevante, anzi fondamentale per il consorzio umano. Si fornisce quindi una breve descrizione del ruolo del cibo nei suoi accostamenti con la definizione di un territorio (e quindi con la sua storia, economia e società), con le arti visive, con il cinema, con la musica, ma anche con la sfera sensoriale (tatto, gusto, olfatto) ed emotivo-cognitiva (psiche) dell’uomo. • Successivamente, si analizza nello specifico la funzione socializzante delle pratiche alimentari, ripercorrendo le tappe principali degli studi classici di sociologia e antropologia dell’alimentazione e introducendo anche l’idea di cibo come simbolo e metafora, che si riflettono sul piano sociale e sulle relazioni tra gli individui. La constatazione che le pratiche legate al cibo sono le uniche attività umane da sempre e per sempre irrinunciabili è un chiaro indicatore di come esse giochino un ruolo fondamentale nella socializzazione umana. • Nel terzo capitolo, la prospettiva simbolico-metaforica è la base di un’analisi di tipo storico delle pratiche alimentari, nello specifico delle pratiche di consumo di cibo, dalle origini dell’umanità ai giorni nostri. Viene presentato un excursus essenziale in cui l’attenzione è focalizzata sulla tavola, sui cibi ivi serviti e sugli eventi di socializzazione che si sviluppano attorno ad essa, considerando situazioni storico-sociali oggettive di cui si è in grado, oggi, di ricostruire le dinamiche e le fasi più significative. • Il quarto capitolo costituisce un momento di riflessione teorica intorno al tema della globalizzazione nella contemporaneità. Sia per una logica progressione cronologica all’interno del lavoro presentato, sia per la rilevanza in quanto inerente alla società attuale in cui viviamo, non si è potuto infatti non soffermarsi un po’ più a fondo sull’analisi delle pratiche alimentari nella contemporaneità, e quindi nella società generalmente definita come “globalizzata” (o “mcdonaldizzata”, per dirla alla Ritzer) ma che in realtà è caratterizzata da un più sottile gioco di equilibri tra dimensione locale e dimensione globale, che si compenetrano come anche nel termine che indica tale equilibrio: il “glocale”. In questo capitolo vengono presentati i principali riferimenti teorici relativi a queste tematiche. • Nel quinto capitolo è stata analizzata, quindi, la declinazione in senso “alimentare” della relazione tra globale e locale, e quindi non solo i mutamenti intercorsi nella contemporaneità nelle pratiche di produzione, scambio e consumo di cibo con particolare riferimento ai sistemi culturali e al territorio, ma anche alcune proposte (sia teoriche che pratiche) a garanzia di uno sviluppo sostenibile del territorio, che trovi i suoi fondamenti sulla perpetuazione di modalità tradizionali di produzione, commercio e consumo di cibo. • Nel sesto capitolo viene analizzato un caso di studio significativo, (il movimento Slow Food, con il suo progetto Terra Madre) senza la pretesa di confermare o smentire né le ipotesi di partenza, né i concetti emersi in itinere, ma semplicemente con l’intenzione di approfondire il percorso svolto attraverso l’esemplificazione operativa e la ricerca entro un piccolo campione composto da testimoni significativi e intervistati, sottoposti a colloqui e interviste incentrate su item inerenti i temi generali di questo lavoro e sul caso di studio considerato. La scelta del caso è motivata dalla considerazione che, alla luce delle filosofia che lo anima e delle attività che svolge, il movimento Slow Food con il progetto Terra Madre costituisce una vera e propria eccellenza nella pianificazione di uno sviluppo sostenibile del territorio e delle sue risorse, tanto economiche quanto sociali e culturali. L’intera analisi è stata condotta tenendo presente l’importanza della comparazione e della collocazione del singolo caso non solo nel contesto sociale di riferimento, ma anche in sintonia con l’ipotesi della ricerca, e quindi con l’assunto che le pratiche alimentari possano guidare uno sviluppo sostenibile del territorio. Per analizzare la realtà individuata, si è in primo luogo proceduto alla raccolta e all’analisi di dati e informazioni volte alla ricostruzione della sua storia e del suo sviluppo attuale. Le informazioni sono state raccolte attraverso l’analisi di materiali, documenti cartacei e documenti multimediali. Si è poi proceduto con colloqui in profondità a testimoni significativi individuati nell’ambito delle attività promosse da Slow Food, con particolare riferimento alle attività di Terra Madre; le informazioni sono state elaborate con l’ausilio dell’analisi del contenuto. Alla luce di quanto analizzato, tanto a livello teorico quanto a livello empirico, la tesi si conclude con alcune considerazioni che, in linea con la finalità dichiarata di approfondire (più che di confermare o smentire) le ipotesi di partenza circa un ruolo fondamentale delle pratiche alimentari nello sviluppo sostenibile del territorio, non possono comunque non tendere ad una convalida dei concetti introduttivi. Si individuano pertanto spunti importanti per affermare che nelle pratiche alimentari, nei tre momenti in cui trovano specificazione (la produzione, lo scambio, il consumo), siano individuabili quei semi valoriali che possono dare solidità alle ipotesi di partenza, e che quindi - nell’intento di operare per uno sviluppo sostenibile del territorio - sia possibile farne un valido strumento al fine di costruire dei veri e propri percorsi di sostenibilità ancorati ai concetti di tutela della tradizione locale, recupero e salvaguardia dei metodi tradizionali di produzione e conservazione, certificazione di tipicità, controllo della distribuzione, riscatto e promozione delle modalità tradizionali di consumo con particolare riferimento alle culture locali.
Resumo:
Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.
Resumo:
Environmental Management includes many components, among which we can include Environmental Management Systems (EMS), Environmental Reporting and Analysis, Environmental Information Systems and Environmental Communication. In this work two applications are presented: the developement and implementation of an Environmental Management System in local administrations, according to the European scheme "EMAS", and the analysis of a territorial energy system through scenario building and environmental sustainability assessment. Both applications are linked by the same objective, which is the quest for more scientifically sound elements; in fact, both EMS and energy planning are oftec carachterized by localism and poor comparability. Emergy synthesis, proposed by ecologist H.T. Odum and described in his book "Environmental Accounting: Emergy and Environmental Decision Making" (1996) has been chosen and applied as an environmental evaluation tool, in order complete the analysis with an assessment of the "global value" of goods and processes. In particular, eMergy syntesis has been applied in order to improve the evaluation of the significance of environmental aspects in an EMS, and in order to evaluate the environmental performance of three scenarios of future evolution of the energy system. Regarding EMS, in this work an application of an EMS together with the CLEAR methodology for environmental accounting is discussed, in order to improve the identification of the environmental aspects; data regarding environmental aspects and significant ones for 4 local authorities are also presented, together with a preliminary proposal for the integration of the assessment of the significance of environmental aspects with eMergy synthesis. Regarding the analysis of an energy system, in this work the carachterization of the current situation is presented together with the overall energy balance and the evaluation of the emissions of greenhouse gases; moreover, three scenarios of future evolution are described and discussed. The scenarios have been realized with the support of the LEAP software ("Long Term Energy Alternatives Planning System" by SEI - "Stockholm Environment Institute"). Finally, the eMergy synthesis of the current situation and of the three scenarios is shown.
Resumo:
Questo elaborato si pone l'obiettivo di analizzare e valutare la sostenibilità dell'intera filiera dell'olio di palma, che viene importato da paesi del Sud Est asiatico per essere utilizzato in Europa per scopi sia energetici che alimentari. Nell'introduzione è inquadrata la problematica dei biocombustibili e degli strumenti volontari che possono essere utilizzati per garantire ed incentivare la sostenibilità in generale e dei biocombustibili; è presente inoltre un approfondimento sull'olio di palma, sulle sue caratteristiche e sulla crescita che ha subito negli ultimi anni in termini di produzione e compra/vendita. Per questa valutazione sono stati impiegati tre importanti strumenti di analisi e certificazione della sostenibilità, che sono stati applicati ad uno specifico caso di studio: l'azienda Unigrà SpA. La certificazione RSPO (Roundtable on Sustainable Palm Oil) è uno strumento volontario per la garanzia della sostenibilità della filiera dell'olio di palma in termini economici (vitalità nel mercato), ambientali (risparmio delle emissioni di gas ad effetto serra o GHG, conservazione delle risorse naturali e della biodiversità) e sociali (preservazione delle comunità locali e miglioramento nella gestione delle aree di interesse). La Global Reporting Initiative è un'organizzazione che prevede la redazione volontaria di un documento chiamato bilancio di sostenibilità secondo delle linee guida standardizzate che permettono alle organizzazioni di misurare e confrontare le loro performance economiche, sociali e ambientali nel tempo. La Direttiva Comunitaria 2009/28/CE (Renewable Energy Directive o RED) è invece uno strumento cogente nel caso in cui le organizzazioni intendano utilizzare risorse rinnovabili per ottenere incentivi finanziari. A seguito di un calcolo delle emissioni di GHG, le organizzazioni devono dimostrare determinate prestazioni ambientali attraverso il confronto con delle soglie presenti nel testo della Direttiva. Parallelamente alla valutazione delle emissioni è richiesto che le organizzazioni aderiscano a dei criteri obbligatori di sostenibilità economica, ambientale e sociale, verificabili grazie a degli schemi di certificazione che rientrano all'interno di politiche di sostenibilità globale. Questi strumenti sono stati applicati ad Unigrà, un'azienda che opera nel settore della trasformazione e della vendita di oli e grassi alimentari, margarine e semilavorati destinati alla produzione alimentare e che ha recentemente costruito una centrale da 58 MWe per la produzione di energia elettrica, alimentata in parte da olio di palma proveniente dal sud-est asiatico ed in parte dallo scarto della lavorazione nello stabilimento. L'adesione alla RSPO garantisce all'azienda la conformità alle richieste dell'organizzazione per la commercializzazione e la vendita di materie prime certificate RSPO, migliorando l'immagine di Unigrà all'interno del suo mercato di riferimento. Questo tipo di certificazione risulta importante per le organizzazioni perché può essere considerato un mezzo per ridurre l'impatto negativo nei confronti dell'ambiente, limitando deforestazione e cambiamenti di uso del suolo, oltre che consentire una valutazione globale, anche in termini di sostenibilità sociale. Unigrà ha visto nella redazione del bilancio di sostenibilità uno strumento fondamentale per la valutazione della sostenibilità a tutto tondo della propria organizzazione, perché viene data uguale rilevanza alle tre sfere della sostenibilità; la validazione esterna di questo documento ha solo lo scopo di controllare che le informazioni inserite siano veritiere e corrette secondo le linee guida del GRI, tuttavia non da giudizi sulle prestazioni assolute di una organizzazione. Il giudizio che viene dato sulle prestazioni delle organizzazioni e di tipo qualitativo ma non quantitativo. Ogni organizzazione può decidere di inserire o meno parte degli indicatori per una descrizione più accurata e puntuale. Unigrà acquisterà olio di palma certificato sostenibile secondo i principi previsti dalla Direttiva RED per l'alimentazione della centrale energetica, inoltre il 10 gennaio 2012 ha ottenuto la certificazione della sostenibilità della filiera secondo lo schema Bureau Veritas approvato dalla Comunità Europea. Il calcolo delle emissioni di tutte le fasi della filiera dell'olio di palma specifico per Unigrà è stato svolto tramite Biograce, uno strumento di calcolo finanziato dalla Comunità Europea che permette alle organizzazioni di misurare le emissioni della propria filiera in maniera semplificata ed adattabile alle specifiche situazioni. Dei fattori critici possono però influenzare il calcolo delle emissioni della filiera dell'olio di palma, tra questi i più rilevanti sono: cambiamento di uso del suolo diretto ed indiretto, perché possono provocare perdita di biodiversità, aumento delle emissioni di gas serra derivanti dai cambiamenti di riserve di carbonio nel suolo e nella biomassa vegetale, combustione delle foreste, malattie respiratorie, cambiamenti nelle caratteristiche dei terreni e conflitti sociali; presenza di un sistema di cattura di metano all'oleificio, perché gli effluenti della lavorazione non trattati potrebbero provocare problemi ambientali; cambiamento del rendimento del terreno, che può influenzare negativamente la resa delle piantagioni di palma da olio; sicurezza del cibo ed aspetti socio-economici, perché, sebbene non inseriti nel calcolo delle emissioni, potrebbero provocare conseguenze indesiderate per le popolazioni locali. Per una valutazione complessiva della filiera presa in esame, è necessario ottenere delle informazioni puntuali provenienti da paesi terzi dove però non sono di sempre facile reperibilità. Alla fine della valutazione delle emissioni, quello che emerge dal foglio di Biograce e un numero che, sebbene possa essere confrontato con delle soglie specifiche che descrivono dei criteri obbligatori di sostenibilità, non fornisce informazioni aggiuntive sulle caratteristiche della filiera considerata. È per questo motivo che accanto a valutazioni di questo tipo è necessario aderire a specifici criteri di sostenibilità aggiuntivi. Il calcolo delle emissioni dell'azienda Unigrà risulta vantaggioso in quasi tutti i casi, anche considerando i fattori critici; la certificazione della sostenibilità della filiera garantisce l'elevato livello di performance anche nei casi provvisti di maggiore incertezza. L'analisi del caso Unigrà ha reso evidente come l'azienda abbia intrapreso la strada della sostenibilità globale, che si traduce in azioni concrete. Gli strumenti di certificazione risultano quindi dei mezzi che consentono di garantire la sostenibilità della filiera dell'olio di palma e diventano parte integrante di programmi per la strategia europea di promozione della sostenibilità globale. L'utilizzo e l'implementazione di sistemi di certificazione della sostenibilità risulta per questo da favorire.
Resumo:
Questa tesi affronta lo studio di una tipologia di vibrazione autoeccitata, nota come chatter, che si manifesta nei processi di lavorazione ad asportazione di truciolo ed in particolare nelle lavorazioni di fresatura. La tesi discute inoltre lo sviluppo di una tecnica di monitoraggio e diagnostica del chatter basato sul rilievo di vibrazioni. Il fenomeno del chatter è caratterizzato da violente oscillazioni tra utensile e pezzo in lavorazione ed elevate emissioni acustiche. Il chatter, se non controllato, causa uno scadimento qualitativo della finitura superficiale e delle tolleranze dimensionali del lavorato, una riduzione della vita degli utensili e dei componenti della macchina. Questa vibrazione affligge negativamente la produttività e la qualità del processo di lavorazione e pregiudica l’interazione uomo-macchina-ambiente. Per una data combinazione di macchina, utensile e pezzo lavorato, i fattori che controllano la velocità di asportazione del materiale sono gli stessi che controllano l’insorgenza del chatter: la velocità di rotazione del mandrino, la profondità assiale di passata e la velocità di avanzamento dell’utensile. Per studiare il fenomeno di chatter, con l’obbiettivo di individuare possibili soluzioni per limitarne o controllarne l’insorgenza, vengono proposti in questa tesi alcuni modelli del processo di fresatura. Tali modelli comprendono il modello viscoelastico della macchina fresatrice e il modello delle azioni di taglio. Per le azioni di taglio è stato utilizzato un modello presente in letteratura, mentre per la macchina fresatrice sono stati utilizzato modelli a parametri concentrati e modelli modali analitico-sperimentali. Questi ultimi sono stati ottenuti accoppiando un modello modale sperimentale del telaio, completo di mandrino, della macchina fresatrice con un modello analitico, basato sulla teoria delle travi, dell’utensile. Le equazioni del moto, associate al processo di fresatura, risultano essere equazioni differenziali con ritardo a coefficienti periodici o PDDE (Periodic Delay Diefferential Equations). È stata implementata una procedura numerica per mappare, nello spazio dei parametri di taglio, la stabilità e le caratteristiche spettrali (frequenze caratteristiche della vibrazione di chatter) delle equazioni del moto associate ai modelli del processo di fresatura proposti. Per testare i modelli e le procedure numeriche proposte, una macchina fresatrice CNC 4 assi, di proprietà del Dipartimento di Ingegneria delle Costruzioni Meccaniche Nucleari e Metallurgiche (DIEM) dell’Università di Bologna, è stata strumentata con accelerometri, con una tavola dinamometrica per la misura delle forze di taglio e con un adeguato sistema di acquisizione. Eseguendo varie prove di lavorazione sono stati identificati i coefficienti di pressione di taglio contenuti nel modello delle forze di taglio. Sono stati condotti, a macchina ferma, rilievi di FRFs (Funzioni Risposta in Frequenza) per identificare, tramite tecniche di analisi modale sperimentale, i modelli del solo telaio e della macchina fresatrice completa di utensile. I segnali acquisiti durante le numerose prove di lavorazione eseguite, al variare dei parametri di taglio, sono stati analizzati per valutare la stabilità di ciascun punto di lavoro e le caratteristiche spettrali della vibrazione associata. Questi risultati sono stati confrontati con quelli ottenuti applicando la procedura numerica proposta ai diversi modelli di macchina fresatrice implementati. Sono state individuate le criticità della procedura di modellazione delle macchine fresatrici a parametri concentrati, proposta in letteratura, che portano a previsioni erronee sulla stabilità delle lavorazioni. È stato mostrato come tali criticità vengano solo in parte superate con l’utilizzo dei modelli modali analitico-sperimentali proposti. Sulla base dei risultati ottenuti, è stato proposto un sistema automatico, basato su misure accelerometriche, per diagnosticare, in tempo reale, l’insorgenza del chatter durante una lavorazione. È stato realizzato un prototipo di tale sistema di diagnostica il cui funzionamento è stato provato mediante prove di lavorazione eseguite su due diverse macchine fresatrici CNC.
Resumo:
Le celle a combustibile ad ossido solido (SOFC) sono reattori elettrochimici che convertono l’energia chimica di un gas combustibile direttamente in energia elettrica con un’alta efficienza e con basse emissioni. Il materiale più comunemente usato come anodo, il Ni/YSZ cermet, mostra però numerosi svantaggi nell’applicazione quali la suscettibilità all’avvelenamento da zolfo e la deposizione di coke per cracking degli idrocarburi usati come combustibile. E’ perciò necessario sviluppare materiali alternativi che sopperiscano a questi problemi. Il titanato di stronzio drogato con lantanio con stechiometria La0.4Sr0.4TiO3 (LST) è stato scelto come anodo alternativo per le ottime proprietà possedute. Lo scopo del lavoro di tesi è stato quindi lo studio dell’influenza della natura dei precursori, delle condizioni di sintesi e dell’aggiunta di agenti porizzanti necessari per l’ottenimento della fase perovskitica pura e con porosità controllata. In un primo tempo è stata verificata la possibilità di ottenere la fase La0.4Sr0.4TiO3 pura mediante sintesi allo stato solido, trattando termicamente miscele di precursori diversi. I risultati ottenuti hanno evidenziato che l’utilizzo di nitrati metallici porta a risultati migliori rispetto all’utilizzo di carbonati ed ossidi poiché permette la formazione della fase perovskite a temperature inferiori e con una purezza maggiore. Poiché l’analisi elementare sui materiali preparati in questa prima fase ha evidenziato un problema sulla stechiometria, il metodo di sintesi è stato ottimizzato solubilizzando preventivamente i precursori di lantanio e stronzio e determinandone il titolo mediante ICP. Inoltre, sono state effettuate delle sintesi utilizzando TiO2 a diversa area superficiale, per verificare l’effetto sulle fasi formate di una maggior reattività di questo componente. Per completezza la perovskite è stata sintetizzata anche tramite sintesi sol-gel, utilizzando il metodo Pechini, ottenendo a 700°C la fase pura. L’analisi morfologica ha evidenziato che le polveri con caratteristiche migliori per la formatura sono quelle ottenute tramite sintesi allo stato solido. Le pastiglie prodotte, miscelando tali polveri e agenti porizzanti opportuni, hanno evidenziato la stabilità della fase perovskitica voluta ma anche la necessità di ottimizzare l’aggiunta del porizzante per avere una porosità adeguata all’applicazione del sistema quale anodo SOFC.
Resumo:
Scopo di questa tesi di laurea sperimentale (LM) è stata la produzione di geopolimeri a base metacaolinitica con una porosità controllata. Le principali tematiche affrontate sono state: -la produzione di resine geopolimeriche, studiate per individuare le condizioni ottimali ed ottenere successivamente geopolimeri con un’ultra-macro-porosità indotta; -lo studio dell’effetto della quantità dell’acqua di reazione sulla micro- e meso-porosità intrinseche della struttura geopolimerica; -la realizzazione di schiume geopolimeriche, aggiungendo polvere di Si, e lo studio delle condizioni di foaming in situ; -la preparazione di schiume ceramiche a base di allumina, consolidate per via geopolimerica. Le principali proprietà dei campioni così ottenuti (porosità, area superficiale specifica, grado di geopolimerizzazione, comportamento termico, capacità di scambio ionico sia delle resine geopolimeriche che delle schiume, ecc.) sono state caratterizzate approfonditamente. Le principali evidenze sperimentali riscontrate sono: A)Effetto dell’acqua di reazione: la porosità intrinseca del geopolimero aumenta, sia come quantità che come dimensione, all’aumentare del contenuto di acqua. Un’eccessiva diluizione porta ad una minore formazione di nuclei con l’ottenimento di nano-precipitati di maggior dimensioni. Nelle schiume geopolimeriche, l’acqua gioca un ruolo fondamentale nell’espansione: deve essere presente un equilibrio ottimale tra la pressione esercitata dall’H2 e la resistenza opposta dalla parete del poro in formazione. B)Effetto dell’aggiunta di silicio metallico: un elevato contenuto di silicio influenza negativamente la reazione di geopolimerizzazione, in particolare quando associato a più elevate temperature di consolidamento (80°C), determinando una bassa geopolimerizzazione nei campioni. C)Effetto del grado di geopolimerizzazione e della micro- e macro-struttura: un basso grado di geopolimerizzazione diminuisce l’accessibilità della matrice geopolimerica determinata per scambio ionico e la porosità intrinseca determinata per desorbimento di N2. Il grado di geopolimerizzazione influenza anche le proprietà termiche: durante i test dilatometrici, se il campione non è completamente geopolimerizzato, si ha un’espansione che termina con la sinterizzazione e nell’intervallo tra i 400 e i 600 °C è presente un flesso, attribuibile alla transizione vetrosa del silicato di potassio non reagito. Le prove termiche evidenziano come la massima temperatura di utilizzo delle resine geopolimeriche sia di circa 800 °C.
Resumo:
Perché L’Aquila? A seguito del sisma del 2009, L’Aquila offre un’occasione per riflessioni su temi urbanistici e di composizione urbana, oltre che un reale campo di sperimentazione architettonica. Perché il centro storico? Come cuore culturale ed economico dell’intera vallata dell’Aterno, il centro storico rappresenta una priorità per la Ricostruzione; il suo valore storico è la sintesi consolidata nel tempo del rapporto di una società con i luoghi della propria residenza. Una memoria da difendere attraverso l’elaborazione di strategie di intervento e idee di progetto. Qual è l’obiettivo? Il lavoro di ricerca e di progettazione mira ad individuare degli scenari e proporre delle idee di ricostruzione per tornare ad abitare il centro storico. Qual è il metodo? Per affrontare una situazione così complessa è indispensabile una conoscenza storica della struttura urbana della città prima del sisma. Inoltre è necessario comprendere l’evoluzione degli eventi (da aprile del 2009 al luglio 2011) al fine di riconoscere quali direzioni possibili può prendere un progetto che si inserisce, oggi, in un sistema ancora in cerca di un equilibrio. La Ricostruzione, intesa come processo strategico e progettuale di ridefinizione degli equilibri e delle prospettive, consente, ma forse ancor meglio esige, un ripensamento complessivo ed organico dell’intera struttura urbana. Si tratta quindi di ridefinire le relazioni tra la città storica e la sua periferia comprendendo il rapporto che un progetto di Ricostruzione può avere nel medio e lungo termine, il tutto in un contesto economico e soprattutto sociale in forte trasformazione. Il progetto propone così un nuovo complesso di residenze universitarie che potrà accogliere settantadue studenti insieme a diversi servizi quali sale lettura, sale polivalenti e una mensa. Si prevede inoltre il potenziamento della struttura di accoglienza dei salesiani con 8 nuovi alloggi per professori e una nuova Biblioteca. Il progetto vuole ricreare una continuità nel sistema del verde urbano come mezzo più appropriato e idoneo per relazionare la prima periferia alla città murata.
Resumo:
L’attuale condizione che caratterizza il settore energetico richiede un necessario processo di riconversione che, oltre a favorire il risparmio energetico, riduca la dipendenza dai combustibili fossili ed accresca l’impiego di fonti energetiche rinnovabili, dando un contributo fondamentale alla riduzione delle emissioni di gas serra come diversi accordi internazionali richiedono. Si rende pertanto necessario accelerare i processi che da alcuni anni stanno favorendo l’utilizzo di energia da fonti rinnovabili. Tra queste, le fonti legate ai processi di trattamento biologico dei reflui stanno avendo un interessante sviluppo. Esistono numerosi processi biologici che consentono la produzione di energia in maniera indiretta, quali ad esempio i processi di digestione anaerobica finalizzati alla produzione di biogas e/o produzione biologica di idrogeno. In tale contesto si inserisce la tecnologia delle Microbial Fuel Cell, che consente la produzione diretta di energia elettrica, finalizzata al recupero energetico inteso al miglioramento dell’efficienza energetica e alla riduzione dei costi d’esercizio di impianti di trattamento biologico dei reflui. Il presente lavoro di Tesi di Dottorato sperimentale, svoltosi in collaborazione al laboratorio PROT.-IDR. della sede ENEA di Bologna, riporta i risultati dell’attività di ricerca condotta su una MFC (Microbial Fuel Cell) a doppio stadio biologico per il trattamento di reflui ad elevato carico organico e produzione continua di energia elettrica. E’ stata provata l’applicabilità della MFC con entrambi i comparti biotici utilizzando elettrodi di grafite non trattata ottenendo, con un carico organico in ingresso di circa 9 gd-1, valori di potenza massima prodotta che si attestano su 74 mWm-2, corrente elettrica massima generata di 175 mAm-2 ad una tensione di 421 mV, ed una conversione di COD in elettricità pari a 1,2 gCODm-2d-1. I risultati sono stati molto positivi per quanto riguarda le prestazioni depurative ottenute dalla MFC. L’efficienza di depurazione misurata ha raggiunto un valore massimo del 98% di rimozione del COD in ingresso, mentre e la concentrazione di azoto ammoniacale nell’effluente raccolto all’uscita del sedimentatore è sempre stata inferiore a 1 mgN-NH4+l-1. Tra gli obiettivi posti all’inizio della sperimentazione si è rivelata di notevole interesse la valutazione del possibile utilizzo della MFC come sistema per il monitoraggio on-line del COD e degli acidi grassi volatili (VFA) prodotti all’interno di un digestore anaerobico, attraverso la definizione di una correlazione tra i dati elettrici registrati in continuo e le concentrazioni di CODanaer e VFA misurate in diversi periodi della sperimentazione. L’analisi DGGE della biomassa catodica ha fornito uno strumento analitico utile allo studio della diversità della comunità microbica sospesa ed adesa al catodo e ha confermato la forte similarità delle specie batteriche riconosciute nei campioni analizzati. In particolare, le bande di sequenziamento ottenute sono affiliate ai gruppi batterici Firmicutes, -Proteobacteria, -Proteobacteria, -Proteobacteria e Bacteroidetes. Da quanto emerso dalla sperimentazione condotta si può pertanto concludere che ad oggi le MFC sono in fase di evoluzione rispetto ai primi prototipi utilizzati per lo studio delle comunità microbiali e per la comprensione dei meccanismi di trasferimento elettronico. Sfruttarne la potenza prodotta in maniera commerciale diviene una grande sfida per il futuro, ed è opinione comune che le prime applicazioni pratiche delle MFC saranno come fonte di recupero energetico per i dispositivi utilizzati per il monitoraggio dell’ambiente e per il trattamento delle acque reflue.
Resumo:
Calcolo della superficie curvilinea di scorrimento di un getto di litio in maniera che la pressione lungo il getto vari in maniera lineare. Formulazione di un codice di calcolo per la determinazione delle diverse possibili superfici. Studio termofluidodinamico del getto con codici CFD. Accoppiamento tra codici di sistema e codici CFD. Valutazioni delle condizioni di Incipient Boiling per il litio.
Resumo:
E’ stimato che circa 4.000 sostanze diverse vengano utilizzate nella medicina umana, fra cui soprattutto analgesici, antinfiammatori, contraccettivi, antibiotici, beta-bloccanti, regolatori lipidici, composti neuroattivi e molti altri. Inoltre un elevato numero di farmaci, spesso simili a quelli umani tra cui antibiotici e antinfiammatori, viene usato nella medicina veterinaria. L’uso può essere diverso nei diversi Paesi ma farmaci quali l’ibuprofene, la carbamazepina, o i beta-bloccanti vengono consumati in quantità di tonnellate per anno. Le analisi chimiche hanno riscontrato la presenza dei residui dei farmaci nelle acque reflue dai depuratori, nei fiumi e nei laghi in maniera ubiquitaria a concentrazioni nell’intervallo di 10-1000 ng/L. Come ci si aspetta, i farmaci sono molto concentrati nelle acque reflue degli ospedali, tuttavia la percentuale di farmaci provenienti dagli ospedali è stata valutata complessivamente non oltre il 20% del quantitativo totale. L’origine preponderante dei farmaci proviene dall’uso domiciliare, per cui gli impianti municipali di raccolta delle acqua di rifiuto sono la maggiore via di ingresso in ambiente. Una volta ingeriti e metabolizzati, i farmaci vengono escreti via urine o feci e introdotti nella rete fognaria fino alle sedi di trattamento delle acque. Altra sorgente è rappresentata dalle manifatture dei farmaci, dalle quali possono derivare scarichi illegali o accidentali. Una sorgente importante di farmaci, soprattutto di antibiotici, è rappresentata dagli allevamenti animali, sia in ambienti interni che al pascolo, e dall’acquacoltura. Nel primo caso in particolare vengono prodotti e raccolti una grande quantità di rifiuti, che di solito sono accumulati temporaneamente e poi dispersi sui suoli agricoli. I farmaci presenti nei suoli possono essere trasportati alle acque sotterranee, o dilavati a livello superficiale contribuendo ad aumentare il livello di farmaci nei corsi d’acqua oppure una volta sciolti nell’acqua interstiziale possono essere assunti dai vegetali. Gli impianti di depurazione attuali non sono pianificati per eliminare microinquinanti altamente polari come i farmaci, e in relazione alle differenti molecole la eliminazione può essere in percentuale diversa, spesso anche molto bassa. I test ecotossicologici di tipo acuto utilizzati per molto tempo per valutare la tossicità dei farmaci ambientali hanno riportato effetti soltanto a concentrazioni superiori a quelle ambientali; nei 2-3 anni più recenti tuttavia è stato messo in luce come, già a basse concentrazioni, alcuni farmaci modifichino le attività riproduttive o il metabolismo di pesci e molluschi. Da qui è nata l’esigenza di studiare quale sia la possibile interazione dei residui dei farmaci con la fauna acquatica a concentrazioni compatibili con quelle ambientali, e valutare il meccanismo d’azione sfruttando per quanto possibile le conoscenze disponibili per i farmaci messi in commercio. I farmaci infatti sono composti disegnati per avere effetti terapeutici attraverso specifici meccanismi d’azione. Negli organismi non bersaglio che risultano esposti ai residui dei farmaci in ambiente, queste sostanze potrebbero però indurre effetti simili a quelli specifici nel caso i bersagli molecolari siano stati conservati durante l’evoluzione. Inoltre, i farmaci manifestano effetti collaterali, in genere se usati a dosi elevate o per lungo tempo, e molto spesso si tratta di effetti ossidanti. E’ possibile che tali effetti siano indotti dai farmaci ambientali nei molluschi o nei pesci, magari a basse dosi se questi animali sono più sensibili dell’uomo. Lo scopo di questa tesi è stato quello di valutare nei mitili Mytilus galloprovincialis i potenziali effetti indotti dalla fluoxetina (farmaco antidepressivo), dal propranololo (farmaco β-bloccante), o dalla loro miscela con riferimento a quelli classificati come collaterali nell’uomo. In particolare, è stata studiata l’espressione di geni che codificano per gli enzimi antiossidanti catalasi (CAT), glutatione S transferasi (GST) e superossido dismutasi (SOD), mediatori della risposta allo stress ossidativo. I possibili effetti dei farmaci sono stati valutati dopo esposizione dei mitili Mytilus galloprovincialis per 7 giorni a fluoxetina (FX) e propranololo (PROP) ad un range di concentrazioni che comprendono quelle misurate in ambiente, e alla loro miscela alla concentrazione di 0,3 ng/l, scelta perché rappresentativa delle dosi inferiori dei due farmaci riscontrate in ambiente acquatico. I risultati hanno dimostrato che FX causa una generale diminuzione dell’espressione dei geni CAT, mentre per i geni codificanti per GST e SOD si osservano variazioni significative soltanto ad una concentrazione di FX, 300 e 3 ng/L rispettivamente. La riduzione dei livelli di espressione di CAT non sempre accompagnata dalla significativa variazione dei livelli di espressione di SOD e GST, può indicare che il sistema anti-ossidante non è in grado di adattarsi in modo efficiente all’alterazione indotta dall’esposizione a FX, portando ad un progressivo aumento dei livelli di stress. Per quanto riguarda gli effetti del PROP, i risultati ottenuti mostrano che nei mitili esposti a concentrazioni crescenti del farmaco i geni CAT e SOD risultano progressivamente sovra-espressi rispetto al controllo, anche se in maniera non significativa mentre i livelli di espressione di GST non sono significativamente alterati. I dati ottenuti esponendo i mitili alla miscela dei due farmaci, indicano che FX e PROP possono avere effetti interattivi sulla regolazione dei tre geni coinvolti nella risposta antiossidante. In presenza della miscela si osserva infatti una riduzione significativa dell’espressione del gene CAT, del gene GST mentre non ci sono effetti sul gene SOD. In conclusione, concentrazioni di PROP e FX nell’intervallo di quelle misurate in ambiente possono generare significativi effetti sui geni CAT, GST, e SOD. Come riscontrato nella precedente letteratura, l’attività o l’espressione degli enzimi antiossidanti risente molto dello stato fisiologico dei mitili e della stagionalità, quindi il ruolo degli enzimi antiossidanti come biomarker deve essere interpretato all’interno di batterie più ampie di risposte subletali degli organismi sentinella. Nel laboratorio questi dati sono stati ottenuti in precedenti lavoro di Tesi (Tosarelli, Tesi Magistrale in Biologia Marina, A.A. 2011; Inzolia, Tesi Magistrale in Biologia Marina, A.A. 2011). Le alterazioni ottenute a concentrazioni circa 1.000 volte inferiori rispetto a quelle efficaci nei test ecotossicologici acuti, dimostrano comunque che i farmaci possono avere effetti sugli organismi anche a concentrazioni molto basse come quelle ambientali. In particolare, poiché gli effetti ossidativi sono i più comuni effetti collaterali dei farmaci nell’Uomo che ne assuma elevate quantità o somministrazioni prolungate nel tempo, possiamo affermare che questi hanno luogo anche negli organismi non-target, a concentrazioni basse e dopo soli 7 giorni di esposizione. I dati della tesi non dimostrano che propranololo e fluoxetina hanno effetti deleteri sulle popolazioni o le comunità dei molluschi, ma debbono essere considerati come indicatori della vulnerabilità degli animali a questi composti.
Resumo:
La necessità di conservazione e recupero di murature, di qualsiasi interesse storico/architettonico, ha evidenziato la necessità di conoscere il più dettagliatamente possibile le caratteristiche strutturali delle opere interessate: un intervento risulterà tanto più efficace e adatto agli scopi prefissi quanto maggiore sarà la conoscenza dell’opera, della sua evoluzione, dei materiali utilizzati per la realizzazione, della tecnica costruttiva e della struttura portante. Spesso è necessario eseguire interventi di adeguamento sismico di comuni edifici su cui poter intervenire più o meno indiscriminatamente, mentre, per opere di interesse storico è necessario ridurre al minimo l’invasività degli interventi: in tutti e due i casi, una buona riuscita dell’intervento dipende dalla conoscenza dell’organismo strutturale sul quale si deve operare. Come spesso accade, anche per opere di recente costruzione, risulta difficile poter recuperare i dati progettuali (disegni e calcoli) e spesso le tecniche e le tipologie utilizzate per le costruzioni si differenziavano da zona a zona, così come diversi erano i materiali da costruzione; risulta quindi evidente che per progettare una serie di interventi di recupero è necessario poter ottenere il maggior numero di informazioni al riguardo. Diverse sono le esperienze maturate in questo campo in tutta Europa e queste hanno mostrato come non è sufficiente intervenire con tecniche innovative per adeguare agli standard attuali di sicurezza opere del passato: infatti, in molti casi, l’applicazione sbagliata di queste tecniche o gli interventi progettati in modo non adeguato non hanno svolto il loro compito e in alcuni casi hanno peggiorato la situazione esistente. Dalle esperienze maturate è stato possibile osservare che anche le migliore tecniche di recupero non possono risultare efficaci senza un’adeguata conoscenza dello stato di degrado degli edifici, del loro assetto strutturale e delle possibili carenze. La diagnostica strutturale si vuole inserire proprio in questo livello potendo fornire ad un progettista tutte le informazioni necessarie per effettuare al meglio ed in maniera efficace gli interventi di recupero e restauro necessari. Oltre questi aspetti, le analisi diagnostiche possono essere utilizzate anche per verificare l’efficacia degli interventi effettuati. Diversi sono gli aspetti che si possono analizzare in un’indagine di diagnostica ed in base alle esigenze e alle necessità del rilievo da effettuare sono varie le tecniche a disposizione, ognuna con le sue peculiarità e potenzialità. Nella realizzazione di questa tesi sono state affrontate diverse problematiche che hanno previsto sia l’analisi di situazioni reali in cantiere, sia lo studio in laboratorio. La prima parte del presente elaborato prevede lo studio delle attività svolte a Palazzo Malvezzi, attuale sede della Provincia di Bologna. L’edificio, di interesse storico, ha subito diverse trasformazioni durate la sua vita ed in alcuni casi, queste, eseguite con tecnologie e materiali inadatti, hanno provocato variazioni nell’assetto statico della struttura; inoltre, il palazzo, è soggetto a movimenti a livello di fondazione in quanto è presente una faglia di subsidenza che attraversa l’edificio. Tutte queste problematiche hanno creato movimenti differenziali alla struttura in elevazione che si sono evidenziati con crepe distribuite in tutto l’edificio. Il primo aspetto analizzato (capitoli 4 e 5) è lo studio della profondità delle fessure presenti nel solaio della sala Rossa, sede dei comunicati stampa e delle conferenze della Provincia. Senza dubbio antiestetiche, le crepe presenti in una struttura, se sottovalutate, possono compromettere notevolmente le funzioni statiche dell’elemento in cui si sviluppano: la funzione di protezione fornita dal solaio o da qualsiasi altro elemento strutturale alle armature in questo immerse, viene meno, offrendo vie preferenziali a possibili situazioni di degrado, specialmente se in condizioni ambientali aggressive. E' facile intuire, quindi, che un aspetto all’apparenza banale come quello delle fessure non può essere sottovalutato. L’analisi è stata condotta utilizzando prove soniche ed impact-echo, tecniche che sfruttano lo stresso principio, la propagazione delle onde elastiche nel mezzo, ma che si differenziano per procedure di prova e frequenze generate nel test. Nel primo caso, la presenza del martello strumentato consente di valutare anche la velocità di propagazione delle onde elastiche, fenomeno utilizzato per ottenere indicazioni sulla compattezza del mezzo, mentre nel secondo non è possibile ricavare queste informazioni in quanto la tecnica si basa solamente sullo studio in frequenza del segnale. L’utilizzo dell’impact-echo è stato necessario in quanto la ristilatura effettuata sulle fessure scelte per l’analisi, non ha permesso di ottenere risultati utili tramite prove soniche ; infatti, le frequenze generate risultano troppo basse per poter apprezzare queste piccole discontinuità materiali. La fase di studio successiva ha previsto l’analisi della conformazione dei solai. Nel capitolo 6, tale studio, viene condotto sul solaio della sala Rossa con lo scopo di individuarne la conformazione e la presenza di eventuali elementi di rinforzo inseriti nelle ristrutturazioni avvenute nel corso della vita del palazzo: precedenti indagini eseguite con endoscopio, infatti, hanno mostrato una camera d’aria ed elementi metallici posizionati al di sotto della volta a padiglione costituente il solaio stesso. Le indagini svolte in questa tesi, hanno previsto l’utilizzo della strumentazione radar GPR: con questa tecnica, basata sulla propagazione delle onde elettromagnetiche all’interno di un mezzo, è possibile variare rapidamente la profondità d’ispezione ed il dettaglio ottenibile nelle analisi cambiando le antenne che trasmettono e ricevono il segnale, caratteristiche fondamentali in questo tipo di studio. I risultati ottenuti hanno confermato quanto emerso nelle precedenti indagini mostrando anche altri dettagli descritti nel capitolo. Altro solaio oggetto d’indagine è quello della sala dell’Ovale (capitoli 7 e 8): costruito per dividere l’antica sala da ballo in due volumi, tale elemento è provvisto al suo centro di un caratteristico foro ovale, da cui ne deriva il nome. La forma del solaio lascia supporre la presenza di una particolare struttura di sostegno che le precedenti analisi condotte tramite endoscopio, non sono riuscite a cogliere pienamente. Anche in questo caso le indagini sono state eseguite tramite tecnica radar GPR, ma a differenza dei dati raccolti nella sala Rossa, in questo caso è stato possibile creare un modello tridimensionale del mezzo investigato; inoltre, lo studio è stato ripetuto utilizzando un’antenna ad elevata risoluzione che ha consentito di individuare dettagli in precedenza non visibili. Un ulteriore studio condotto a palazzo Malvezzi riguarda l’analisi della risalita capillare all’interno degli elementi strutturali presenti nel piano interrato (capitolo 9): questo fenomeno, presente nella maggior parte delle opere civili, e causa di degrado delle stesse nelle zone colpite, viene indagato utilizzando il radar GPR. In questo caso, oltre che individuare i livelli di risalita osservabili nelle sezioni radar, viene eseguita anche un’analisi sulle velocità di propagazione del segnale e sulle caratteristiche dielettriche del mezzo, variabili in base al contenuto d’acqua. Lo scopo è quello di individuare i livelli massimi di risalita per poterli confrontare con successive analisi. Nella fase successiva di questo elaborato vengono presentate le analisi svolte in laboratorio. Nella prima parte, capitolo 10, viene ancora esaminato il fenomeno della risalita capillare: volendo studiare in dettaglio questo problema, sono stati realizzati dei muretti in laterizio (a 2 o 3 teste) e per ognuno di essi sono state simulate diverse condizioni di risalita capillare con varie tipologie di sale disciolto in acqua (cloruro di sodio e solfato di sodio). Lo scopo è di valutare i livelli di risalita osservabili per diverse tipologie di sale e per diverse concentrazioni dello stesso. Ancora una volta è stata utilizzata la tecnica radar GPR che permette non solo di valutare tali livelli, ma anche la distribuzione dell’umidità all’interno dei provini, riuscendo a distinguere tra zone completamente sature e zone parzialmente umide. Nello studio è stata valutata anche l’influenza delle concentrazioni saline sulla propagazione del segnale elettromagnetico. Un difetto delle tecniche di diagnostica è quello di essere strumenti qualitativi, ma non quantitativi: nel capitolo 11 viene affrontato questo problema cercando di valutare la precisione dei risultati ottenuti da indagini condotte con strumentazione radar GPR. Studiando gli stessi provini analizzati nel capitolo precedente, la tecnica radar è stata utilizzata per individuare e posizionare i difetti (muretti a 3 teste) e le pietre (muretti a 2 teste) inserite in questi elementi: i risultati ottenuti nella prova sono stati confrontati, infine, con la reale geometria. Nell’ultima parte (capitolo 12), viene esaminato il problema dell’individuazione dei vuoti all’interno di laterizi: per questo scopo sono state create artificialmente delle cavità di diversa forma e a diverse profondità all’interno di laterizi pieni che, dopo un trattamento in cella climatica per aumentarne la temperatura, sono stati sottoposti a riprese termografiche nella fase di raffreddamento. Lo scopo di queste prove è quello di valutare quale sia la massima differenza di temperatura superficiale causata dai diversi difetti e per quale intervallo di temperature questa si verifica.
Resumo:
L’obiettivo della tesi è la caratterizzazione termica e la definizione del potenziale geotermico dell’acquifero freatico costiero e quello semiconfinato della provincia di Ravenna. L'area di studio si estende dalla foce del fiume Reno sino alla foce del Fiume Savio, per una lunghezza complessiva pari a 30 km circa ed una larghezza di 10 km nel punto di massima distanza dal mare. Il lavoro svolto per il raggiungimento dello scopo suddetto si compone di diverse fasi. Innanzitutto è stato necessario misurare le temperature dell’acquifero. Per tale motivo sono state effettuate due campagne di monitoraggio (giugno e dicembre 2010) durante le quali, mediante apposite sonde, sono stati reperiti i dati di temperatura della falda freatica. Queste operazioni sono state possibili grazie a una rete di 56 piezometri omogeneamente distribuita sull’area di studio. In un secondo momento, si è organizzato un database in cui raccogliere tutti i valori registrati. Tale documento è stato il punto di partenza per la fase successiva, l’elaborazione dei dati. Mediante i software Excel ed EnviroInsite sono stati realizzati profili di temperatura, mappe e sezioni di temperatura dell’acquifero, le quali mostrano efficacemente le condizioni termiche dell’acquifero. Diverse le anomalie termiche riscontrate. Queste risultano giustificabili solo parzialmente dai consueti fattori proposti in letteratura quali: il clima, i corsi fluviali, la litologia, la copertura vegetale. Si è evidenziata, infatti, una particolare interazione tra il drenaggio superficiale (gestito dalle idrovore) e gli scambi di calore tra i diversi orizzonti dell’acquifero. Considerata la condizione di bassa entalpia in cui si trova l’acquifero ravennate, la valutazione del potenziale geotermico non è stata eseguita mediante il metodo proposto da Muffler & Cataldi (1977); si è determinato, invece, il rendimento potenziale di una pompa di calore geotermica. La pompa di calore risulta essere, infatti, l’unica tecnologia (attualmente in commercio) in grado di sfruttate il calore presente nell’acquifero. Possiamo concludere che nonostante i rendimenti calcolati risultino lievemente al di sotto delle soglie di rendimento consigliate in bibliografia, l’installazione della suddetta tecnologia può risultare economicamente vantaggiosa.
Resumo:
I poriferi rappresentano un importante campo di ricerca anche in ambito applicativo in quanto potenzialmente utili come fonte di metaboliti secondari da impiegarsi in ambito clinico (antitumorali, antibiotici, antivirali, ecc.) e industriale (antifouling). I processi di biosilicificazione interessano invece per aspetti legati alle biotecnologie marine. Questo Phylum ha un importante ruolo strutturale e funzionale nell’ecologia dei popolamenti bentonici, in quanto può essere dominante in numerosi habitat e svolgere un ruolo ecologico fondamentale nelle dinamiche degli ecosistemi marini. Per questo, la variazione spaziale e temporale della loro abbondanza può avere effetti considerevoli su altri membri della comunità. Lo studio delle dinamiche di popolazione e del ciclo riproduttivo dei poriferi potrebbe permettere di valutare come i cambiamenti climatici ne influenzino la crescita e la riproduzione e potrebbe quindi fornire una base per lo sviluppo di corrette tecniche di gestione ambientale. La spugna Axinella polypoides è inserita all’interno delle liste di protezione della Convenzione di Berna e di Barcellona, dove sono elencate le specie da proteggere perché minacciate o in pericolo di estinzione. Questa specie, avendo una morfologia eretta, è fortemente minacciata soprattutto da attività antropiche quali pesca e ancoraggi, ma nonostante questo la letteratura relativa ad essa è scarsa, La sua importanza è legata soprattutto al recente utilizzo come modello per numerosi esperimenti. A. polypoides rappresenta, infatti, il più basso livello nella scala evolutiva in cui sono stati rinvenuti meccanismi biochimici cellulari di reazione all’aumento di temperatura (incremento dell’attività ADP-ribosil ciclasica, sintesi di ossido nitrico) tipici degli organismi superiori. Lo scopo di questa tesi è di aumentare le conoscenze sull’ecologia e sulla biologia di questo porifero, al fine di consentire una migliore predisposizione di eventuali piani di tutela. Dallo studio delle colonie effettuato presso l’Isola Gallinara (SV), emerge una dinamica di crescita lenta ed un ciclo riproduttivo estivo, coerentemente con quanto osservato per altre specie mediterranee del genere Axinella. Le analisi istologiche effettuate hanno mostrato variabilità temporale nella densità e nella dimensione di particolari cellule sferulose, che si ipotizza siano collegate a fenomeni di proliferazione cellulare e rigenerazione in seguito a danni. È stata individuata inoltre la presenza di una particolare tipologia cellulare dendritica la cui funzione si ritiene abbia affinità con le funzioni sensoriali di Phyla superiori. Queste osservazioni, e l’evidente vulnerabilità della specie agli impatti antropici, hanno evidenziato la necessità di sviluppare adeguati piani di monitoraggio e di conservazione.
Resumo:
È ormai noto che numerosi organismi marini, dalle alghe unicellulari ai pesci coabitino con diverse specie di spugne, con un rapporto che varia, secondo i casi, dal semplice inquilinismo facoltativo alle più complesse simbiosi obbligate. All’interno di molte spugne si trovano degli endobionti, alcuni organismi rappresentano degli ospiti puramente occasionali, altri manifestano una notevole costanza e l’esistenza in associazione alla spugna sembra rappresenti la norma. In Adriatico settentrionale, nell’area compresa tra Grado ed il delta del fiume Po, sono presenti degli affioramenti rocciosi organogeni carbonatici che prendono il nome di tegnùe. In questi affioramenti è stata riscontrata una grande varietà di specie macrobentoniche sia sessili che vagili. Tra queste specie, è presente con elevate abbondanze e grandi dimensioni, fuori dal comune, la spugna massiva Geodia cydonium, oggetto del nostro studio. Lo scopo del presente lavoro è di caratterizzare la diversità della fauna associata alla demospongia Geodia cydonium, cercando di mettere in evidenza l’importante ruolo ecologico legato proprio all’elevato numero di inquilini che ospita. Sono stati prelevati campioni di spugna, con la relativa fauna associata, da tre siti presenti all’interno della Zona di Tutela Biologica di Chioggia. Date le grandi dimensioni degli esemplari e per non danneggiare la popolazione naturale di questa rara specie protetta, sono stati prelevati in immersione delle porzioni di spugna, incidendo verticalmente gli esemplari. Nei campioni sono stati riscontrati 28 taxa, tra cui prevalgono per abbondanza i policheti come Ceratonereis costae e Sphaerosyllis bulbosa e piccoli crostacei come Apseudopsis acutifrons e Leptochelia savignyi. Per molte specie prevalgono individui giovanili rispetto agli adulti. L’abbondanza e la ricchezza dei popolamenti associati alla spugna non risultano variare ne tra i siti di campionamento ne in relazione alle dimensioni degli esemplari da cui provengono i campioni. Questo fa supporre che la spugna crei un ambiente ideale per alcune specie, almeno nelle fasi giovanili, creando così associazioni relativamente stabili, più di quanto non sia la naturale variabilità dei popolamenti circostanti. Queste relazioni meritano di essere approfondite, investigando i cicli vitali e i comportamenti delle singole specie.