421 resultados para Scoliosi, Trattamento Chirurgico, Strumentazione, Fallimenti Chirurgici
Resumo:
L’ossidazione catalitica parziale (CPO) del metano è un processo di elevato interesse scientifico ed industriale, permettendo la produzione su piccola scala di H2 o la produzione di syngas con un rapporto H2/CO = 2, utile per la produzione di metanolo o la sintesi di Fischer-Tropsch di idrocarburi. Inoltre, si possono raggiungere elevate conversioni del metano e selettività in syngas operando a bassi valori del tempo di contatto, riducendo così le dimensioni dei reattori. Tuttavia, gli elevati flussi e le temperature raggiunte nel letto possono condurre rapidamente alla disattivazione del catalizzatore; pertanto, è necessario lo sviluppo di materiali non soltanto attivi, ma anche stabili nelle condizioni di reazione. Lo scopo di questo lavoro è stato lo sviluppo di catalizzatori a base di Rh e ceria, utilizzati sia come pellets che supportati su una schiuma metallica. In particolare, il lavoro è stato focalizzato sulla sintesi, caratterizzazione ed attività catalitica di materiali Rh-CeO2-Al2O3. La presenza di CeO2 può modificare la dispersione del Rh metallico e la sua stabilità nei confronti della sinterizzazione e della formazione del carbone, mentre la stabilità termica è favorita dalla presenza di Al2O3. Poiché queste proprietà e, di conseguenza, le prestazione catalitiche dipendono dalla dimensioni delle particelle di CeO2 sono stati preparati catalizzatori con diverso contenuto di CeO2 (10 e 20 p/p %) ed utilizzando differenti metodi di preparazione per modularne le proprietà. Le sintesi sono effettuate per coprecipitazione e per sintesi con urea per trattamento micronde-idrotermale. Le prestazione dei catalizzatori in pellets sono state analizzate in un impianto di laboratorio operando a bassi valori del tempo di contatto e modificando la temperatura e la concentrazione della miscela gassosa, i.e. sia in condizioni lontane dall’equilibrio termodinamico che in condizioni prossime a quelle industriali. Un catalizzatore con lo stesso contenuto di Rh ed ottenuto da precursori tipo idrotalcite (HT) è stato utilizzato come riferimento. Per incrementare ulteriormente le prestazioni catalitiche, in particolare il trasferimento del calore lungo il letto catalitico, la migliore composizione individuata delle prove precedenti è stata depositata su pellets di una schiuma metallica (FeCrAlloy). E’ stato utilizzato il metodo dell’elettrosintesi per la deposizione di idrossidi di Rh, Ce e Al, ottenendo dopo calcinazione catalizzatori strutturati. Si è valutato l’effetto dei parametri di sintesi, potenziale applicato e tempo, sulle proprietà catalitiche. Anche in questo caso i risultati sono stati confrontati quelli ottenuti con un catalizzatori di riferimento ottenuti da un precursore HT preparati per elettrosintesi.
Resumo:
La scarsità di informazioni sulle reazioni che intervengono nel processo di stiratura semipermanente dei capelli e la necessità di trovare prodotti alternativi all’uso della formaldeide ha portato a intraprendere questo lavoro di tesi. Esso si è svolto seguendo due linee principali: l’indagine sui possibili meccanismi di reazione che intervengono fra composti aventi gruppi aldeidici, quali formaldeide o acido gliossilico (particolarmente efficaci nel processo di stiratura), e alcuni amminoacidi presenti nei capelli da un lato, e uno studio sulle modificazioni che intervengono nella fibra attraverso spettroscopia Raman e ATR-FT-IR e microscopia elettronica a scansione (SEM) dall’altro. Partendo dall’ipotesi più plausibile di una addizione sull’atomo di carbonio carbonilico da parte di nucleofili presenti su alcuni residui amminoacidici della catena polipeptidica, sono stati presi in considerazioni tre gruppi funzionali presenti sugli amminoacidi che possono dar luogo ad addizione reversibile al carbonio carbonilico: il gruppo tiolico che comportandosi come nucleofilo allo zolfo potrebbe dare formazione di semitioacetali, il gruppo ossidrilico di amminoacidi come serina e treonina che potrebbe dare semiacetali, ed il gruppo amminico di amminoacidi basici che agendo da nucleofilo all’azoto potrebbe generare immine. Dopo aver indagato sulla reazione fra aldeide formica (o acido gliossilico) con cisteina e derivati, l’indagine è proseguita utilizzando come amminoacido basico modello N-acetil-L-lisina, dove il gruppo amminico in posizione alfa al carbossile è protetto per cercare di mimare la situazione nel polipeptide. Alcune prove sono state condotte facendo reagire questo substrato sia con una serie di aldeidi aromatiche in diverse condizioni sperimentali che con acido gliossilico. In seguito sono state svolte analisi mediante spettroscopia Raman e ATR-FT-IR su ciocche di pelo di yak nelle diverse fasi del trattamento più comunemente utilizzato nella stiratura semipermanente. Questo ha permesso di ottenere indicazioni sia sulle modificazioni della struttura secondaria subite dalla fibra che sul verificarsi di reazioni fra agente lisciante e residui amminoacidici presenti su di essa. Infine è stata svolta un’indagine SEM sia su fibre di yak che su capelli umani ricci per osservare le variazioni superficiali nei diversi stadi del trattamento.
Resumo:
Diversi studi presenti in letteratura hanno messo in evidenza come il sistema di filtrazione di un olio extravergine di oliva rivesta un ruolo importante per una corretta conservazione del prodotto nel tempo; contestualmente, l’applicazione di metodi tradizionali di trattamento comporta la diminuzione di alcuni componenti minori: oltre all’allontanamento dei composti in sospensione, che concorrono a fornire l’aspetto torbido all’olio non trattato, viene allontanata acqua micro dispersa, che ha l’importante compito di solubilizzare molecole dotate di una certa polarità, principalmente fenoliche che, come noto, risultano indispensabili per la stabilità ossidativa e giocano un ruolo chiave nell’impartire all’olio extravergine di oliva alcune note sensoriali peculiari, quali l’amaro ed il piccante, percepibili in fase gustativa. Lo scopo di questo progetto sperimentale è stato di valutare la qualità chimica e sensoriale di tre oli extra vergini di oliva sottoposti ad un sistema brevettato di illimpidimento, basato sul passaggio di un flusso di gas inerte, quale l’argon, nella massa di olio d'oliva. Questo metodo può rappresentare una valida alternativa ai trattamenti tradizionali e per questo è indispensabile valutarne i punti di forza e di debolezza in relazione all’effettiva possibilità di impiego nella produzione industriale. Per questa finalità, il sistema brevettato dall'Università di Bologna e dalla Sapio (una società privata che fornisce il gas per i settori industriali e della ricerca) è stato applicato a un lotto di 50 L di ciascun olio dopo la sua produzione mediante mini-frantoio. I campioni, sia trattati che controllo, sono stati imbottigliati e conservati a temperatura ambiente e mantenuti al buio prima dell'analisi. Dopo quattro mesi di conservazione, sono stati valutati gli indici di qualità di base, tra cui acidità libera, numero di perossidi, assorbimento specifico nella zona dei dieni e trieni coniugati e il profilo sensoriale. Inoltre è stata valutata la stabilità ossidativa in condizioni forzate, il profilo dei composti maggioritari (acidi grassi) e dei composti minori (tocoferoli, fenoli, volatili, acqua). I risultati sono stati utilizzati per la comparazione della qualità complessiva degli oli extravergini di oliva sottoposti a chiarifica con sistema brevettato rispetto a quelli non trattati, permettendo una valutazione dell’effetto del nuovo sistema sulle caratteristiche chimiche e sensoriali del prodotto.
Resumo:
Lo studio è stato effettuato nell’ambito del progetto Theseus; il mio lavoro mirava a valutare la risposta dei popolamenti meio e macrobentonici alla presenza di diverse tipologie di strutture di difesa costiera. Sono stati presi in esame a tal fine oltre al sito di campionamento di Cesenatico sud, con presenza di barriere emerse anche il sito di Cesenatico nord, con presenza di barriere semisommerse, per poter effettuare un confronto. Il campionamento è stato fatto nella zona intertidale dove sono stati prese oltre alle variabili biotiche di macro e meiofauna anche quelle abiotiche (granulometria e sostanza organica). Sono stati scelti sei transetti in maniera random, 3 livelli di marea fissi l’alta, la media e la bassa (H, M, L) e due repliche (A e B) per un totale di 36 campioni per ogni variabile presa in esame. Dopo la fase di trattamento dei campioni in laboratorio state fatte in seguito analisi univariate effettuando l’ANOVA sia sui dati biotici di abbondanza numero di taxa e indice di diversità di Shannon di macro e meiobenthos sia sulle singole variabili ambientali di TOM, mediana, classazione, shell mean (capulerio). Sono state fatte anche analisi multivariate; per quanto riguarda i dati biotici sono state effettuate analisi di MDS e PERMANOVA e per quanto riguarda le variabili dei dati abiotici è stata fatta l’analisi della PCA. Infine per effettuare un confronto tra le variabili ambientali e quelle biotiche è stata fatta anche l’analisi BIOENV. Dai risultati sono emerse delle differenze sostanziali tra i due siti con maggiore abbondanza e diversità nel sito di Cesenatico nord rispetto a quello sud. Sono state evidenziate anche differenze nei livelli di marea con una maggiore abbondanza nel livello di bassa marea rispetto alla media e all’alta soprattutto per quanto riguarda il sito di Cesenatico sud. Dal confronto tra i dati ambientali e quelli biotici ne è risultato che la variabile più strettamente correlata è quella del capulerio sia per quanto riguarda il pattern di distribuzione della macrofauna che della meio. Tale lavoro ha messo in evidenza come i popolamenti rispondano in maniera differente alla presenza di differenti barriere di difesa costiera che anche se simili nella loro struttura presentano dei differenti effetti che hanno sull’azione del moto ondoso, circolazione dell’acqua e trasporto di sedimenti portando così a differenti risposte nei patterns di distribuzione dei popolamenti.
Resumo:
Nel presente elaborato si è affrontato il tema dell’utilizzo di biogas per la produzione di energia elettrica e termica; in primo luogo è stata fatta una panoramica sulla diffusione degli impianti di digestione anaerobica in Europa e in Italia, con particolare attenzione alla logica degli incentivi volti alla promozione delle fonti rinnovabili. Il biogas presenta infatti il duplice vantaggio di inserirsi sia nell’ottica del “Pacchetto Clima-Energia” volto alla riduzione di consumi energetici da fonti fossili, sia nella migliore gestione dei rifiuti organici volta alla riduzione del conferimento in discarica. L’allineamento degli incentivi italiani con quelli europei, prevista dal Decreto Ministeriale 6 luglio 2012, presuppone un’espansione del settore biogas più oculata e meno speculativa di quella degli ultimi anni: inoltre la maggiore incentivazione all’utilizzo di rifiuti come materia prima per la produzione di biogas, comporta l’ulteriore vantaggio di utilizzare, per la produzione di energia e compost di qualità, materia organica che nel peggiore dei casi sarebbe inviata in discarica. Il progetto oggetto di studio nasce dalla necessità di trattare una quantità superiore di Frazione Organica di Rifiuti Solidi Urbani da R.D, a fronte di una riduzione drastica delle quantità di rifiuti indifferenziati conferiti ai siti integrati di trattamento di rifiuti non pericolosi. La modifica nella gestione integrata dei rifiuti prevista dal progetto comporta un aumento di efficienza del sito, con una drastica riduzione dei sovvalli conferiti a discariche terze, inoltre si ha una produzione di energia elettrica e termica annua in grado di soddisfare gli autoconsumi del sito e di generare un surplus di elettricità da cedere in rete. Nel contesto attuale è perciò conveniente predisporre nei siti integrati impianti per il trattamento della FORSU utilizzando le Migliori Tecniche Disponibili proposte dalle Linee Guida Italiane ed Europee, in modo tale da ottimizzare gli aspetti ambientali ed economici dell’impianto. Nell’elaborato sono stati affrontati poi gli iter autorizzativi necessari per le autorizzazioni all’esercizio ed alla costruzione degli impianti biogas: a seguito di una dettagliata disamina delle procedure necessarie, si è approfondito il tema del procedimento di Valutazione di Impatto Ambientale, con particolare attenzione alla fase di Studio di Impatto Ambientale. Inserendosi il digestore in progetto in un sito già esistente, era necessario che il volume del reattore fosse compatibile con l’area disponibile nel sito stesso; il dimensionamento di larga massima, che è stato svolto nel Quadro Progettuale, è stato necessario anche per confrontare le tipologie di digestori dry e wet. A parità di rifiuto trattato il processo wet richiede una maggiore quantità di fluidi di diluizione, che dovranno essere in seguito trattati, e di un volume del digestore superiore, che comporterà un maggiore dispendio energetico per il riscaldamento della biomassa all’interno. È risultata perciò motivata la scelta del digestore dry sia grazie al minore spazio occupato dal reattore, sia dal minor consumo energetico e minor volume di reflui da trattare. Nella parte finale dell’elaborato sono stati affrontati i temi ambientali,confrontando la configurazione del sito ante operam e post operam. È evidente che la netta riduzione di frazione indifferenziata di rifiuti, non totalmente bilanciata dall’aumento di FORSU, ha consentito una riduzione di traffico veicolare indotto molto elevato, dell’ordine di circa 15 mezzi pesanti al giorno, ciò ha comportato una riduzione di inquinanti emessi sul percorso più rilevante per l’anidride carbonica che per gli altri inquinanti. Successivamente è stata valutata, in modo molto conservativo, l’entità delle emissioni ai camini dell’impianto di cogenerazione. Essendo queste l’unico fattore di pressione sull’ambiente circostante, è stato valutato tramite un modello semplificato di dispersione gaussiana, che il loro contributo alla qualità dell’aria è generalmente una frazione modesta del valore degli SQA. Per gli ossidi di azoto è necessario un livello di attenzione superiore rispetto ad altri inquinanti, come il monossido di carbonio e le polveri sottili, in quanto i picchi di concentrazione sottovento possono raggiungere frazioni elevate (fino al 60%) del valore limite orario della qualità dell’aria, fissato dal D.Lgs 155/2010. Infine, con riferimento all’ energia elettrica producibile sono state valutate le emissioni che sarebbero generate sulla base delle prestazioni del parco elettrico nazionale: tali emissioni sono da considerare evitate in quanto l’energia prodotta nel sito in esame deriva da fonti rinnovabili e non da fonti convenzionali. In conclusione, completando il quadro di emissioni evitate e indotte dalla modifica dell’impianto, si deduce che l’impatto sull’ambiente non modificherà in maniera significativa le condizioni dell’aria nella zona, determinando una variazione percentuale rispetto agli inquinanti emessi a livello regionale inferiore all’1% per tutti gli inquinanti considerati (CO, PM10, NOX, NMCOV). Il vantaggio più significativo riguarda una riduzione di emissioni di CO2 dell’ordine delle migliaia di tonnellate all’anno; questo risultato è importante per la riduzione di emissione dei gas serra in atmosfera e risulta in accordo con la logica dell’utilizzo di biomasse per la produzione di energia. Dal presente elaborato si evince infine come l’utilizzo del biogas prodotto dalla digestione anaerobica della Frazione Organica dei Rifiuti Solidi Urbani non comporti solo un vantaggio dal punto di vista economico, grazie alla presenza degli incentivi nazionali, ma soprattutto dal punto di vista ambientale, grazie alla riduzione notevole dei gas serra in atmosfera, in accordo con gli obiettivi europei e mondiali, e grazie al recupero di rifiuti organici per la produzione di energia e compost di qualità.
Resumo:
Studio di alcuni dispositivi presenti nelle vetture di formula 1, ma anche in quelle di serie più comuni, per l’ancoraggio e per l’isolamento delle vibrazioni fra componentistiche elettriche e telaio del veicolo. Questi dispositivi, noti come antivibranti (AV), svolgono un ruolo essenziale nel cercare di preservare i dispositivi elettrici: centraline, scatole cablate e connessioni elettriche. Il diffondersi di strumentazione adeguata a costi non più proibitivi ha permesso di studiare più in dettaglio e più scientificamente il comportamento degli AV per sfruttarli al meglio. Obiettivo di questo studio è dare una caratterizzazione scientifica e rigorosa alla maggior parte degli antivibranti presenti in STR7 monoposto Toro Rosso (mondiale di F1 2012), buona parte dei quali verrà utilizzata anche nelle successive vetture. Si volevano, inoltre, sviluppare alcuni modelli che potessero simulare correttamente montaggi di centraline generiche con tutte le diverse tipologie di antivibranti, in modo tale da poter vedere, prima ancora di realizzarli, come si comportavano i sistemi in quelle condizioni e dunque poter apportare modifiche al progetto tali da ottenere la configurazione di montaggio migliore. La continua ricerca di miglioramenti prestazionali che una competizione motoristica ad altissimi livelli richiede, il costante bisogno di alleggerimenti e maggiore affidabilità spingono la ricerca e l'azienda voleva passare da una progettazione basata sulla ripetizione delle configurazioni dimostratesi affidabili nel passato ad una progettazione più tecnica, scientifica e prestazionale. Per una buona caratterizzazione delle proprietà degli antivibranti sono stati progettati specifici test da eseguire al banco vibrante con i quali, lavorando nel dominio delle frequenze, si sono sfruttate le funzioni di risposte in frequenze di ogni antivibrante per ricavare i parametri caratteristici degli stessi nelle varie configurazioni. Con strategie grafiche, numeriche e teoriche si sono ricavati, con buone precisioni, i valori dei coefficienti di smorzamento e di rigidezza che caratterizzano i componenti studiati. Per l’esecuzione di questi test sono stati utilizati tutti gli strumenti messi a disposizione da Scuderia Toro Rosso nel laboratorio per prove vibrazionali recentemente approntato. Per la parte di simulazione numerica invece sono stati sfruttati i risultati ottenuti nella caratterizzazione degli antivibranti per creare programmi in ambiente Matlab che possano simulare il comportamento di generiche centraline montate in generici modi. Risultati di questo studio saranno gli andamenti dei coefficienti di rigidezza e smorzamento dei vari antivibranti nelle diverse configurazioni; inoltre si renderanno disponibili ai progettisti istruzioni e semplici programmi per la valutazione delle scelte fatte al fine di minimizzare le vibrazioni dei dispositivi.
Resumo:
Background: l’epilessia è una malattia cerebrale che colpisce oggigiorno circa l’1% della popolazione mondiale e causa, a chi ne soffre, convulsioni ricorrenti e improvvise che danneggiano la vita quotidiana del paziente. Le convulsioni sono degli eventi che bloccano istantaneamente la normale attività cerebrale; inoltre differiscono tra i pazienti e, perciò, non esiste un trattamento comune generalizzato. Solitamente, medici neurologi somministrano farmaci, e, in rari casi, l’epilessia è trattata con operazioni neurochirurgiche. Tuttavia, le operazioni hanno effetti positivi nel ridurre le crisi, ma raramente riescono a eliminarle del tutto. Negli ultimi anni, nel campo della ricerca scientifica è stato provato che il segnale EEG contiene informazioni utili per diagnosticare l'arrivo di un attacco epilettico. Inoltre, diversi algoritmi automatici sono stati sviluppati per rilevare automaticamente le crisi epilettiche. Scopo: lo scopo finale di questa ricerca è l'applicabilità e l'affidabilità di un dispositivo automatico portatile in grado di rilevare le convulsioni e utilizzabile come sistema di monitoraggio. L’analisi condotta in questo progetto, è eseguita con tecniche di misure classiche e avanzate, in modo tale da provare tecnicamente l’affidabilità di un tale sistema. La comparazione è stata eseguita sui segnali elettroencefalografici utilizzando due diversi sistemi di acquisizione EEG: il metodo standard utilizzato nelle cliniche e il nuovo dispositivo portatile. Metodi: è necessaria una solida validazione dei segnali EEG registrati con il nuovo dispositivo. I segnali saranno trattati con tecniche classiche e avanzate. Dopo le operazioni di pulizia e allineamento, verrà utilizzato un nuovo metodo di rappresentazione e confronto di segnali : Bump model. In questa tesi il metodo citato verrà ampiamente descritto, testato, validato e adattato alle esigenze del progetto. Questo modello è definito come un approccio economico per la mappatura spazio-frequenziale di wavelet; in particolare, saranno presenti solo gli eventi con un’alta quantità di energia. Risultati: il modello Bump è stato implementato come toolbox su MATLAB dallo sviluppatore F. Vialatte, e migliorato dall’Autore per l’utilizzo di registrazioni EEG da sistemi diversi. Il metodo è validato con segnali artificiali al fine di garantire l’affidabilità, inoltre, è utilizzato su segnali EEG processati e allineati, che contengono eventi epilettici. Questo serve per rilevare la somiglianza dei due sistemi di acquisizione. Conclusioni: i risultati visivi garantiscono la somiglianza tra i due sistemi, questa differenza la si può notare specialmente comparando i grafici di attività background EEG e quelli di artefatti o eventi epilettici. Bump model è uno strumento affidabile per questa applicazione, e potrebbe essere utilizzato anche per lavori futuri (ad esempio utilizzare il metodo di Sincronicità Eventi Stocas- tici SES) o differenti applicazioni, così come le informazioni estratte dai Bump model potrebbero servire come input per misure di sincronicità, dalle quali estrarre utili risultati.
Resumo:
Il BPA è un composto aromatico precursore di materiali plastici e additivi chimici, ed è entrato a far parte della categoria dei contaminanti che alterano il sistema endocrino con molteplici effetti negativi sulla salute umana (azione di mimesi estrogenica, alterazioni della funzione tiroidea e dei sistemi riproduttivo, nervoso ed immunitario). Nella fase produttiva industriale si hanno emissioni accidentali di BPA durante il trattamento e la lavorazione dei monomeri plastici. Piccole frazioni di BPA possono essere ingerite dall’uomo poiché la sostanza migra nel tempo dal contenitore alimentare al contenuto (es. bevanda in lattina o contenitore per microonde) soprattutto se esposto ad alte temperature. Anche il contatto con composti acidi o basici, la presenza di elevati livelli di cloruro di sodio o di oli vegetali, è in grado di provocare un incremento del rilascio di BPA dai materiali polimerici. Il BPA viene rilasciato dai biberon in policarbonato, che in molti Paesi sono stati ritirati dal commercio nel 2011, e da bottiglie di acqua riutilizzabili. Infine, la carta termica degli scontrini e delle fotocopie rilasciano BPA. Nell’adulto la tossicità del BPA sembra modesta, tuttavia l'esposizione nel feto e nel neonato può risultare deleteria. Al di là della tossicità, l'aspetto che al momento preoccupa maggiormente è l'effetto che il BPA ha anche a basse dosi sul metabolismo: diversi studi in tutto il mondo correlano questa sostanza all'incidenza di diabete, ipertensione, obesità e problemi cardiaci. L’attenzione per il BPA è piuttosto recente a livello umano, mentre è assai ridotta per la salute dell’ecosistema. Tuttavia è noto che il BPA è presente anche come contaminante dei suoli, e pur essendo stato documentato il suo bioaccumulo negli organismi vegetali, non sono disponibili informazioni precedenti relativi agli effetti del BPA sugli organismi animali del suolo, in linea con il fatto che il suolo è stato una matrice ambientale molto trascurata. Il presente lavoro di tesi quindi si pone come uno studio pilota per valutare la possibile tossicità del BPA su organismi modello che vivono in questa matrice. In questo studio è stato scelto come bioindicatore “sentinella” il lombrico Eisenia andrei, il comune verme rosso, come suggeriscono le linee guida internazionali (OECD, OCSE). I possibili effetti biologici del Bisfenolo A nei lombrichi sono stati indagati sia attraverso endpoint del ciclo vitale (accrescimento, riproduzione e mortalità), sia attraverso una batteria di biomarker (generali e specifici). Data la mancanza di osservazioni precedenti si è scelto un approccio integrato tra i parametri del ciclo vitale, in genere meno sensibili ma ecologicamente più rilevanti, e i biomarker, risposte più sensibili che possono rappresentare segnali precoci di allarme inerenti l’esposizione a contaminanti ambientali o l’effetto di questi ultimi sugli organismi indagati, ma non necessariamente predittivi sulla salute della comunità. Al momento non esistono batterie di biomarker specifiche per questa sostanza, quindi un ulteriore scopo della ricerca è stato quello di evidenziare biomarker utili ad indagare eventuali alterazioni biochimiche e funzionali nei lombrichi in risposta all’esposizione a dosi crescenti di bisfenolo A. Le risposte biologiche indagate sono: - la diminuzione della stabilità delle membrane lisosomiali, che indica una riduzione dello stato di salute generale degli organismi; - l’alterazione dell’attività degli enzimi catalasi e glutatione-S-trasferasi, indice di stress ossidativo o induzione di meccanismi di detossificazione; - la diminuzione dell’attività dell’enzima acetilcolinesterasi, la quale indica neurotossicità; - l’accumulo di lipofuscine o lipidi neutri, che è sintomo rispettivamente di stress ossidativo o alterazioni del metabolismo; - la variazione della malondialdeide, composto intermedio della perossidazione lipidica, indica un stress ossidativo in corso. Sulla base dei dati ottenuti possiamo dire che il BPA, alle concentrazioni ambientali, non costituisce un elemento di rischio ecologico per gli organismi sentinella Eisenia andrei. Alle concentrazioni più elevate (che superano quelle ambientali di almeno 10 volte) si osservano delle alterazioni sui livelli di lipidi neutri e lipofuscine che pur non essendo preoccupanti dal punto di vista ecologico sono indice di vulnerabilità, dato che si tratta di alterazioni del metabolismo in conseguenza delle quali gli animali accumulano residui normalmente degradati a livello lisosomiale. Questo accumulo nei lisosomi delle cellule del tessuto cloragogeno dei vermi, che rivestono il tubo digerente, sembrano indicare una esposizione attraverso la dieta a seguito della ingestione del terreno. E’interessante il fatto che l’accumulo di lipidi è in linea con le caratteristiche obesogene del BPA, ben manifestate nei mammiferi, uomo compreso. Tuttavia non ci sono ancora conoscenze sufficienti per stabilire se questo accumulo nei vermi sia dovuto ad una specifica alterazione degli enzimi di sintesi dei lipidi oppure più genericamente ad un aumento dello stress ossidativo. Molti studi stanno valutando la capacità del BPA di alterare la sintesi e il rilascio di lipidi in cellule umane e di ratto, ma non ci sono ancora studi di questo tipo per gli organismi edafici. E’ auspicabile che questo aspetto venga approfondito, ed eventualmente venga identificato un nuovo biomarker specifico dell’azione del BPA sull’accumulo di lipidi. Un altro aspetto che sarà interessante approfondire è il bioaccumulo: la valutazione del rischio ecotossicologico di una sostanza si basa anche sul potenziale di BCF che può essere pericoloso per il biota (incluso l’uomo) per trasferimento nella catena trofica. Considerando che non esistono ancora studi specifici del bioaccumulo del BPA in organismi del suolo, ed avendo messo in luce che l’assunzione della sostanza è avvenuta (probabilmente per via alimentare) ci si pone l’obiettivo futuro di valutare questo parametro nei lombrichi, in modo da avere un quadro più ampio degli effetti associati a questo interferente endocrino nei suoli.
Resumo:
La carbamazepina fu commercializzata a partire dagli anni Sessanta; è un analgesico anticonvulsivante e specifico per la nevralgia del trigemino ed è uno dei principali farmaci usati nel trattamento dell’epilessia. La sua azione più nota a livello del sistema nervoso è quella di rallentare il recupero dei canali al sodio, sebbene abbia anche effetti metabolici importanti interferendo con il ciclo degli inositoli e con la GSK-3 (glicogeno sintasi-chinasi 3). Tale sostanza è sotto la lente d’ingrandimento sia per le sue caratteristiche chimico-fisiche (vedi la sua alta persistenza in ambiente) sia per la sua alta tossicità per la salute umana. Le sue proprietà terapeutiche spesso sono accompagnate da effetti collaterali sia nei pazienti che assumono direttamente il medicinale, sia negli organismi non-bersaglio che vengono a contatto con i residui ed i metaboliti del farmaco in ambiente. Le principali fonti di contaminazione dell’ambiente sono rappresentate dagli scarichi domestici, urbani, ospedalieri ed industriali e dagli effluenti di impianti di depurazione. Inoltre, l’uso irriguo di acque contenenti residui del farmaco oppure fenomeni di esondazione di corpi idrici contaminati contribuiscono ampiamente alla distribuzione di questo composto nei suoli. La matrice suolo ha avuto relativamente poca attenzione per quanto riguarda gli effetti dell’inquinamento sugli organismi in generale, ed in particolare non vi sono studi sui farmaci. Il presupposto di questo studio dunque è stato quello di mettere a punto una metodologia volta a valutare gli effetti all’esposizione del farmaco carbamazepina su organismi bioindicatori, i lombrichi della specie Eisenia andrei. Il seguente progetto è durato da Maggio 2012 a Febbraio 2013, periodo in cui sono stati effettuati saggi sub cronici per valutare l’effetto di suoli sperimentalmente contaminati con il farmaco sui parametri del ciclo vitale del lombrico (accrescimento, mortalità e riproduzione) e su una serie di biomarker cellulari (neutral red retention assay, accumulo lisosomiale di lipofuscine, accumulo lisosomiale di lipidi neutri insaturi, attività dell’enzima acetilcolinsterasi, attività dell’enzima catalasi, attività dell’ enzima glutatione-S-transferasi e concentrazione di malondialdeide). I risultati ottenuti mostrano che la carbamazepina non ha effetti sui parametri del ciclo vitale. Per quanto riguarda i parametri fisiologici si notano tuttavia dei risultati diversi. L’accumulo lisosomiale di lipofuscine e lipidi neutri indica che il metabolismo dei vermi risulta in qualche modo alterato dall’esposizione alla carbamazepina alle concentrazioni saggiate. Queste alterazioni potrebbero essere spiegate da un effetto di tipo ossidante; infatti i due biomarker oltre a rappresentare un segnale di alterazione metabolica rappresentano anche un indicazione di perossidazione lipidica. Queste osservazioni meritano di essere approfondite studiando il bioaccumulo e la degradazione della carbamazepina nei suoli, che potrebbero essere alla base della diversità di risultati rispetto alla tossicità evidenziata negli organismi acquatici. A fronte della consapevolezza dei rischi potenziali dovuti alla presenza di farmaci nelle acque e nel suolo, molto resta da fare per ampliare le conoscenze su questa tipologia di contaminazione, in particolare nei campi del monitoraggio e del comportamento ambientale, degli studi ecotossicologici e delle procedure e tecnologie idonee a limitare la loro immissione nell’ambiente.
Resumo:
La nostra tesi affronta il tema del trattamento della terminologia nelle risorse lessicografiche monolingui e bilingui. Nella società contemporanea, il progresso tecnico-scientifico e la democratizzazione del sapere attuano una migrazione del lessico specialistico verso la lingua corrente. Una delle conseguenze di questa dinamica linguistica è la necessità di includere i tecnicismi nei dizionari destinati al grande pubblico. L'attenzione dei lessicografi si focalizza su quei settori che hanno un forte impatto sociale. Il nostro studio riguarda,nello specifico, il trattamento lessicografico riservato alla terminologia delle energie rinnovabili.
Resumo:
Il presente studio è stato svolto allo scopo di offrire un'ampia conoscenza del prestito linguistico, in particolare dell'extranjersimo (forestierismo in italiano), nello spagnolo attuale. Considerando l'ampio trattamento del fenomeno offerto dalle opere accademiche della Real Academia Española e delle Accademie americane della lingua spagnola, abbiamo cercato di verificare se e come la stampa si facesse eco delle raccomandazioni date dalle varie istituzioni normative.
Resumo:
Negli ultimi cinquant’anni, in particolare dal 1956 al 2010, grazie a miglioramenti di tipo economico e sociale, il territorio urbanizzato italiano è aumentato di circa 600 mila ettari, cioè una superficie artificializzata pari quasi a quella dell’intera regione Friuli Venezia Giulia, con un aumento del 500% rispetto agli anni precedenti. Quando si parla di superfici “artificializzate” ci si riferisce a tutte quelle parti di suolo che perdono la propria caratteristica pedologica per essere asportate e divenire urbanizzate, cioè sostituite da edifici, spazi di pertinenza, parcheggi, aree di stoccaggio, strade e spazi accessori. La costruzione di intere periferie e nuclei industriali dagli anni ’50 in poi, è stata facilitata da un basso costo di mano d’opera e da una supposta presenza massiccia di risorse disponibili. Nonché tramite adeguati piani urbanistico-territoriali che hanno accompagnato ed assecondato questo orientamento. All’oggi, è evidente come questa crescita tumultuosa del tessuto urbanizzato non sia più sostenibile. Il consumo del suolo provoca infatti vari problemi, in particolare di natura ecologica e ambientale, ma anche sanitaria, economica e urbana. Nel dettaglio, secondo il dossier Terra Rubata1, lanciato all’inizio del 2012 dal FAI e WWF gli aspetti che vengono coinvolti direttamente ed indirettamente dalla conversione urbana dei suoli sono complessivamente i seguenti. Appartenenti alla sfera economico-energetica ritroviamo diseconomie dei trasporti, sperperi energetici, riduzione delle produzioni agricole. Per quanto riguarda la sfera idro-geo-pedologica vi è la possibilità di destabilizzazione geologica, irreversibilità d’uso dei suoli, alterazione degli assetti idraulici ipo ed epigei. Anche la sfera fisico-climatica non è immune a questi cambiamenti, ma può invece essere soggetta ad accentuazione della riflessione termica e dei cambiamenti 1 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 2 climatici, ad una riduzione della capacità di assorbimento delle emissioni, ad effetti sul sequestro del carbonio e sulla propagazione spaziale dei disturbi fisico-chimici. In ultimo, ma non per importanza, riguardo la sfera eco-biologica, ritroviamo problemi inerenti l’erosione fisica e la distruzione degli habitat, la frammentazione eco sistemica, la distrofia dei processi eco-biologici, la penalizzazione dei servizi ecosistemici dell’ambiente e la riduzione della «resilienza» ecologica complessiva. Nonostante ci sia ancora la speranza che questo orientamento possa “invertire la rotta”, non è però possibile attendere ancora. È necessario agire nell’immediato, anche adottando adeguati provvedimenti normativi e strumenti pianificatori ed operativi nell’azione delle pubbliche amministrazioni analogamente a quanto, come evidenziato nel dossier sopracitato2, hanno fatto altri paesi europei. In un recente documento della Commissione Europea3 viene posto l’anno 2050 come termine entro il quale “non edificare più su nuove aree”. Per fare ciò la Commissione indica che nel periodo 2000-2020 occorre che l’occupazione di nuove terre sia ridotta in media di 800 km2 totali. È indispensabile sottolineare però, che nonostante la stabilità demografica della situazione attuale, se non la sua leggera decrescenza, e la società attuale ha necessità di spazi di azione maggiori che non nel passato e possiede una capacità di spostamento a velocità infinitamente superiori. Ciò comporta una variazione enorme nel rapporto tra le superfici edificate (quelle cioè effettivamente coperte dal sedime degli edifici) e le superfici urbanizzate (le pertinenze pubbliche e private e la viabilità). Nell’insediamento storico, dove uno degli obiettivi progettuali era quello di minimizzare i tempi di accesso tra abitazioni e servizi urbani, questo rapporto varia tra il 70 e il 90%, mentre nell’insediamento urbano moderno è quasi sempre inferiore al 40-50% fino a valori anche inferiori al 20% in taluni agglomerati commerciali, 2 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 3 Tabella di marcia verso un’Europa efficiente nell’impiego delle risorse, settembre 2011 3 industriali o direzionali nei quali il movimento dei mezzi o le sistemazioni paesaggistiche di rappresentanza richiedono maggiori disponibilità di spazi. Come conciliare quindi la necessità di nuovi spazi e la necessità di non edificare più su nuove aree? Dai dati Istat il 3% del territorio Italiano risulta occupato da aree dismesse. Aree che presentano attualmente problemi di inquinamento e mancata manutenzione ma che potrebbero essere la giusta risorsa per rispondere alle necessità sopracitate. Enormi spazi, costruiti nella precedente epoca industriale, che possono essere restituiti al pubblico sotto forma di luoghi destinati alla fruizione collettiva come musei, biblioteche, centri per i giovani, i bambini, gli artisti. Allo stesso tempo questi spazi possono essere, completamente o in parte, rinaturalizzati e trasformati in parchi e giardini. La tematica, cosiddetta dell’archeologia industriale non si presenta come una novità, ma come una disciplina, definita per la sua prima volta in Inghilterra nel 1955, che vanta di esempi recuperati in tutta Europa. Dagli anni ’60 l’opinione pubblica cominciò ad opporsi alla demolizione di alcune strutture industriali, come ad esempio la Stazione Euston a Londra, riconoscendone l’importanza storica, culturale ed artistica. Questo paesaggio industriale, diviene oggi testimonianza storica di un’epoca e quindi per questo necessita rispetto e attenzione. Ciò non deve essere estremizzato fino alla esaltazione di questi immensi edifici come rovine intoccabili, ma deve invitare l’opinione pubblica e i progettisti a prendersene cura, a reintegrarli nel tessuto urbano donando loro nuove funzioni compatibili con la struttura esistente che andrà quindi lasciata il più possibile inalterata per mantenere una leggibilità storica del manufatto. L’Europa presenta vari casi di recupero industriale, alcuni dei quali presentano veri e propri esempi da seguire e che meritano quindi una citazione ed un approfondimento all’interno di questo saggio. Tra questi l’ex stabilimento FIAT del Lingotto a Torino, 4 la celebre Tate Modern di Londra, il Leipzig Baumwollspinnerei, il Matadero Madrid e la Cable Factory a Elsinky. Questi edifici abbandonati risultano all’oggi sparsi in maniera disomogenea anche in tutta Italia, con una maggiore concentrazione lungo le linee ferroviarie e nei pressi delle città storicamente industrializzate. Essi, prima di un eventuale recupero, risultano come rifiuti abbandonati. Ma come sopradetto questi rifiuti urbani possono essere recuperati, reinventati, riabilitati, ridotati di dignità, funzione, utilità. Se questi rifiuti urbani possono essere una nuova risorsa per le città italiane come per quelle Europee, perché non provare a trasformare in risorse anche i rifiuti di altra natura? Il problema dei rifiuti, più comunemente chiamati come tali, ha toccato direttamente l’opinione pubblica italiana nel 2008 con il caso drammatico della regione Campania e in particolare dalla condizione inumana della città di Napoli. Il rifiuto è un problema dovuto alla società cosiddetta dell’usa e getta, a quella popolazione che contrariamente al mondo rurale non recupera gli scarti impiegandoli in successive lavorazioni e produzioni, ma li getta, spesso in maniera indifferenziata senza preoccuparsi di ciò che ne sarà. Nel passato, fino agli anni ’60, il problema dello smaltimento dei rifiuti era molto limitato in quanto in genere gli scatti del processo industriale, lavorativo, costruttivo venivano reimpiegati come base per una nuova produzione; il materiale da riciclare veniva di solito recuperato. Il problema degli scarti è quindi un problema moderno e proprio della città, la quale deve quindi farsene carico e trasformarlo in un valore, in una risorsa. Se nell’equilibrio ecologico la stabilità è rappresentata dalla presenza di cicli chiusi è necessario trovare una chiusura anche al cerchio del consumo; esso non può terminare in un oggetto, il rifiuto, ma deve riuscire a reinterpretarlo, a trovare per 5 esso una nuova funzione che vada ad attivare un secondo ciclo di vita, che possa a sua volta generare un terzo ciclo, poi un quarto e cosi via. Una delle vie possibili, è quella di riciclare il più possibile i nostri scarti e quindi di disassemblarli per riportare alla luce le materie prime che stavano alla base della loro formazione. Uno degli ultimi nati, su cui è possibile agire percorrendo questa strada è il rifiuto RAEE4. Esso ha subito un incremento del 30,7% negli ultimi 5 anni arrivando ad un consumo di circa 19 kilogrammi di rifiuti all’anno per abitante di cui solo 4 kilogrammi sono attualmente smaltiti nelle aziende specializzate sul territorio. Dismeco s.r.l. è una delle aziende sopracitate specializzata nello smaltimento e trattamento di materiale elettrico ed elettronico, nata a Bologna nel 1977 come attività a gestione familiare e che si è poi sviluppata divenendo la prima in Italia nella gestione specifica dei RAEE, con un importante incremento dei rifiuti dismessi in seguito all'apertura del nuovo stabilimento ubicato nel Comune di Marzabotto, in particolare nel lotto ospitante l’ex-cartiera Rizzoli-Burgo. L’azienda si trova quindi ad operare in un contesto storicamente industriale, in particolare negli edifici in cui veniva stoccato il caolino e in cui veniva riciclata la carta stampata. Se la vocazione al riciclo è storica dell’area, grazie all’iniziativa dell’imprenditore Claudio Tedeschi, sembra ora possibile la creazione di un vero e proprio polo destinato alla cultura del riciclo, all’insegnamento e all’arte riguardanti tale tematica. L’intenzione che verrà ampliamente sviluppata in questo saggio e negli elaborati grafici ad esso allegati è quella di recuperare alcuni degli edifici della vecchia cartiera e donane loro nuove funzioni pubbliche al fine di rigenerare l’area. 4 RAEE: Rifiuti di Apparecchiature Elettriche ed Elettroniche, in lingua inglese: Waste of electric and electronic equipment (WEEE) o e-waste). Essi sono rifiuti di tipo particolare che consistono in qualunque apparecchiatura elettrica o elettronica di cui il possessore intenda disfarsi in quanto guasta, inutilizzata, o obsoleta e dunque destinata all'abbandono. 6 Il progetto, nello specifico, si occuperà di riqualificare energeticamente il vecchio laboratorio in cui veniva riciclata la carta stampata e di dotarlo di aree per esposizioni temporanee e permanenti, sale conferenze, aule didattiche, zone di ristoro e di ricerca. Per quanto riguarda invece l’area del lotto attualmente artificializzata, ma non edificata, vi è l’intenzione di riportarla a zona verde attraverso la creazione di un “Parco del Riciclo”. Questa zona verde restituirà al lotto un collegamento visivo con le immediate colline retrostanti, accoglierà i visitatori e li ospiterà nelle stagioni più calde per momenti di relax ma al tempo stesso di apprendimento. Questo perché come già detto i rifiuti sono risorse e quando non possono essere reimpiegati come tali vi è l’arte che se ne occupa. Artisti del calibro di Picasso, Marinetti, Rotella, Nevelson e molti altri, hanno sempre operato con i rifiuti e da essi sono scaturite opere d’arte. A scopo di denuncia di una società consumistica, semplicemente come oggetti del quotidiano, o come metafora della vita dell’uomo, questi oggetti, questi scarti sono divenuti materia sotto le mani esperte dell’artista. Se nel 1998 Lea Vergine dedicò proprio alla Trash Art una mostra a Rovereto5 significa che il rifiuto non è scarto invisibile, ma oggetto facente parte della nostra epoca, di una generazione di consumatori frugali, veloci, e indifferenti. La generazione dell’”usa e getta” che diviene invece ora, per necessita o per scelta generazione del recupero, del riciclo, della rigenerazione. L’ipotesi di progetto nella ex-cartiera Burgo a Lama di Reno è proprio questo, un esempio di come oggi il progettista possa guardare con occhi diversi queste strutture dismesse, questi rifiuti, gli scarti della passata società e non nasconderli, ma reinventarli, riutilizzarli, rigenerarli per soddisfare le necessità della nuova generazione. Della generazione riciclo.
Resumo:
Lo scopo di questa tesi è l'installazione di un Rilassometro ottenuto a partire da un magnete permanente situato nel Dipartimento di Fisica e Astronomia (DIFA - via Irnerio, 46), al fine di eseguire misure attendibili di Rilassometria in mezzi porosi su campioni del diametro di alcuni centimetri. Attualmente nel Dipartimento è gia presente un elettromagnete adibito a misure di questo tipo; tuttavia, questo strumento permette lo studio di campioni di piccole dimensioni (circa 220mm3) e si rivela insuffciente per lo studio di rocce, coralli e altre strutture porose di più grande dimensione senza la frantumazione del campione stesso; per questa ragione si è presentata la necessità dell'istallazione di una nuova strumentazione. Parte della strumentazione utilizzata è in disuso da parecchi anni e le caratteristiche devono essere verificate. Dopo l'assemblaggio della strumentazione (magnete, console, probe), sono state determinate le migliori condizioni in cui effettuare le misure, ovvero i parametri fondamentali dell'elettronica (frequenza di risonanza, TATT, tempo morto del probe, tempo di applicazione dell'impulso 90°) e la zona di maggiore uniformità del campo magnetico. Quindi, sono state effettuate misure di T1 e T2 su campioni bulk e su un campione di roccia saturata d'acqua, confrontando i risultati con valori di riferimento ottenuti tramite elettromagnete. I risultati ottenuti risultano consistenti con i valori attesi, con scarti - inevitabili a causa della grande differenza di volume dei campioni - molto ridotti, pertanto l'installazione del nuovo Rilassometro risulta essere completata con successo.
Resumo:
Il tumore al seno è il più comune tra le donne nel mondo. La radioterapia è comunemente usata dopo la chirurgia per distruggere eventuali cellule maligne rimaste nel volume del seno. Nei trattamenti di radioterapia bisogna cercare di irradiare il volume da curare limitando contemporaneamente la tossicità nei tessuti sani. In clinica i parametri che definiscono il piano di trattamento radioterapeutico sono selezionati manualmente utilizzando un software di simulazione per trattamenti. Questo processo, detto di trial and error, in cui i differenti parametri vengono modificati e il trattamento viene simulato nuovamente e valutato, può richiedere molte iterazioni rendendolo dispendioso in termini di tempo. Lo studio presentato in questa tesi si concentra sulla generazione automatica di piani di trattamento per irradiare l'intero volume del seno utilizzando due fasci approssimativamente opposti e tangenti al paziente. In particolare ci siamo concentrati sulla selezione delle direzioni dei fasci e la posizione dell'isocentro. A questo scopo, è stato investigata l'efficacia di un approccio combinatorio, nel quale sono stati generati un elevato numero di possibili piani di trattamento utilizzando differenti combinazioni delle direzioni dei due fasci. L'intensità del profilo dei fasci viene ottimizzata automaticamente da un algoritmo, chiamato iCycle, sviluppato nel ospedale Erasmus MC di Rotterdam. Inizialmente tra tutti i possibili piani di trattamento generati solo un sottogruppo viene selezionato, avente buone caratteristiche per quel che riguarda l'irraggiamento del volume del seno malato. Dopo di che i piani che mostrano caratteristiche ottimali per la salvaguardia degli organi a rischio (cuore, polmoni e seno controlaterale) vengono considerati. Questi piani di trattamento sono matematicamente equivalenti quindi per selezionare tra questi il piano migliore è stata utilizzata una somma pesata dove i pesi sono stati regolati per ottenere in media piani che abbiano caratteristiche simili ai piani di trattamento approvati in clinica. Questo metodo in confronto al processo manuale oltre a ridurre considerevol-mente il tempo di generazione di un piano di trattamento garantisce anche i piani selezionati abbiano caratteristiche ottimali nel preservare gli organi a rischio. Inizialmente è stato utilizzato l'isocentro scelto in clinica dal tecnico. Nella parte finale dello studio l'importanza dell'isocentro è stata valutata; ne è risultato che almeno per un sottogruppo di pazienti la posizione dell'isocentro può dare un importante contributo alla qualità del piano di trattamento e quindi potrebbe essere un ulteriore parametro da ottimizzare.
Resumo:
In questa tesi abbiamo studiato la quantizzazione di una teoria di gauge di forme differenziali su spazi complessi dotati di una metrica di Kaehler. La particolarità di queste teorie risiede nel fatto che esse presentano invarianze di gauge riducibili, in altre parole non indipendenti tra loro. L'invarianza sotto trasformazioni di gauge rappresenta uno dei pilastri della moderna comprensione del mondo fisico. La caratteristica principale di tali teorie è che non tutte le variabili sono effettivamente presenti nella dinamica e alcune risultano essere ausiliarie. Il motivo per cui si preferisce adottare questo punto di vista è spesso il fatto che tali teorie risultano essere manifestamente covarianti sotto importanti gruppi di simmetria come il gruppo di Lorentz. Uno dei metodi più usati nella quantizzazione delle teorie di campo con simmetrie di gauge, richiede l'introduzione di campi non fisici detti ghosts e di una simmetria globale e fermionica che sostituisce l'iniziale invarianza locale di gauge, la simmetria BRST. Nella presente tesi abbiamo scelto di utilizzare uno dei più moderni formalismi per il trattamento delle teorie di gauge: il formalismo BRST Lagrangiano di Batalin-Vilkovisky. Questo metodo prevede l'introduzione di ghosts per ogni grado di riducibilità delle trasformazioni di gauge e di opportuni “antifields" associati a ogni campo precedentemente introdotto. Questo formalismo ci ha permesso di arrivare direttamente a una completa formulazione in termini di path integral della teoria quantistica delle (p,0)-forme. In particolare esso permette di dedurre correttamente la struttura dei ghost della teoria e la simmetria BRST associata. Per ottenere questa struttura è richiesta necessariamente una procedura di gauge fixing per eliminare completamente l'invarianza sotto trasformazioni di gauge. Tale procedura prevede l'eliminazione degli antifields in favore dei campi originali e dei ghosts e permette di implementare, direttamente nel path integral condizioni di gauge fixing covarianti necessari per definire correttamente i propagatori della teoria. Nell'ultima parte abbiamo presentato un’espansione dell’azione efficace (euclidea) che permette di studiare le divergenze della teoria. In particolare abbiamo calcolato i primi coefficienti di tale espansione (coefficienti di Seeley-DeWitt) tramite la tecnica dell'heat kernel. Questo calcolo ha tenuto conto dell'eventuale accoppiamento a una metrica di background cosi come di un possibile ulteriore accoppiamento alla traccia della connessione associata alla metrica.