999 resultados para Analisi di rischio - Biogas - Modellizzazione - GasSim
Resumo:
Il Lavoro si inserisce nel quadro complesso del settore Energy & Utilities e si propone l’obiettivo di analizzare l’attuale mercato dell’energia per individuarne i driver al cambiamento e presentare un innovativo modello di business per le aziende di vendita di energia, con lo scopo di recuperare efficienza nella gestione del Cliente finale, cercando di quantificarne i vantaggi potenziali. L’attività di studio e progettuale è stata svolta nell’ambito di un periodo di tirocinio formativo della durata di sei mesi, effettuato presso Engineering Ingegneria Informatica S.p.A., in particolare nella sede di viale Masini di Bologna, a seguito della candidatura autonoma dello studente e del suo immediato inserimento nei processi di business della divisione Utilities dell’azienda. Il Lavoro si suddivide in 9 capitoli: dopo una breve introduzione sul settore Energy&Utilities, nei primi quattro capitoli sono descritte le filiere produttive dei principali servizi, i principali attori del mercato e gli aspetti normativi e tariffari che caratterizzano l’intero settore, valutando in particolare la formazione del prezzo del gas e dell’energia elettrica. I capitoli cinque e sei descrivono invece le principali tendenze, le strategie competitive in atto nel mercato delle Utilities e l’importanza del Cliente, in un’ottica di CRM che segue i dettami del modello “Customer Centric”. Gli ultimi capitoli mostrano invece, dopo una breve presentazione dell’azienda in cui lo studente ha svolto l’attività, l’intero lavoro di analisi realizzato, input del modello di business a chiusura del Lavoro, volto a quantificare gli impatti del processo di liberalizzazione che ha radicalmente modificato il settore delle Utilities negli ultimi anni, valutando a proposito la profittabilità per un cliente medio in base ad un’opportuna pre-analisi di segmentazione. Il modello di business che occupa l’ultimo capitolo costituisce una soluzione originale e innovativa per incrementare tale profittabilità.
Resumo:
Il continuo verificarsi di gravi incidenti nei grandi impianti industriali ha spinto gli Stati membri dell’Unione Europea a dotarsi di una politica comune in materia di prevenzione dei grandi rischi industriali. Anche a seguito della pressione esercitata dall’opinione pubblica sono state implementate, nel corso degli ultimi quarant’anni, misure legislative sempre più efficaci per la prevenzione e la mitigazione dei rischi legati ad attività industriali particolarmente pericolose. A partire dagli ultimi anni dello scorso secolo, l’Unione Europea ha emanato una serie di direttive che obbligano gli Stati membri ad essere garanti della sicurezza per l’uomo e per l’ambiente nelle zone circostanti a stabilimenti a rischio di incidente rilevante. In quest’ottica è stata pubblicata nel 1982 la Direttiva Seveso I [82/501/EEC], che è stata ampliata nel 1996 dalla Direttiva Seveso II [96/82/CE] ed infine emendata nel dicembre 2003 dalla Direttiva Seveso III [2003/105/CE]. Le Direttive Seveso prevedono la realizzazione negli Stati membri di una valutazione dei rischi per gli stabilimenti industriali che sono suscettibili a incendi, esplosioni o rilasci di gas tossici (quali, ad esempio, le industrie chimiche, le raffinerie, i depositi di sostanze pericolose). La Direttiva Seveso II è stata trasposta in legge belga attraverso “l’Accord de Coopération” del 21 giugno 1999. Una legge federale nel giugno del 2001 [M.B. 16/06/2001] mette in vigore “l’Accord de Coopération”, che è stato in seguito emendato e pubblicato il 26 aprile del 2007 [M.B. 26/04/2007]. A livello della Regione Vallona (in Belgio), la tematica del rischio di incidente rilevante è stata inclusa nelle disposizioni decretali del Codice Vallone della Pianificazione Territoriale, dell’Urbanismo e del Patrimonio [CWATUP]. In questo quadro la Regione Vallona ha elaborato in collaborazione con la FPMs (Faculté Polytechnique de Mons) una dettagliata metodologia di analisi del rischio per gli stabilimenti a rischio di incidente rilevante. In Italia la Direttiva Seveso II è stata recepita dal Decreto Legislativo n°334 emanato nell’agosto del 1999 [D. Lgs. 334/99], che ha introdotto per la prima volta nel quadro normativo italiano i concetti fondamentali di “controllo dell’urbanizzazione” e “requisiti minimi di sicurezza per la pianificazione territoriale”. Il Decreto Legislativo 334/99 è attualmente in vigore, modificato ed integrato dal Decreto Legislativo n°238 del 21 settembre 2005 [D. Lgs. 238/05], recepimento italiano della Direttiva Seveso III. Tra i decreti attuativi del Decreto Legislativo 334/99 occorre citare il Decreto Ministeriale n°151 del 2001 [D. M. 151/01] relativo alla pianificazione territoriale nell’intorno degli stabilimenti a rischio di incidente rilevante. L’obiettivo di questo lavoro di tesi, che è stato sviluppato presso la Faculté Polytechnique di Mons, è quello di analizzare la metodologia di quantificazione del rischio adottata nella Regione Vallona, con riferimento alla pianificazione territoriale intorno agli stabilimenti a rischio di incidente rilevante, e di confrontarla con quella applicata in Italia. La metodologia applicata in Vallonia è di tipo “probabilistico” ovvero basata sul rischio quale funzione delle frequenze di accadimento e delle conseguenze degli scenari incidentali. Il metodo utilizzato in Italia è “ibrido”, ovvero considera sia le frequenze che le conseguenze degli scenari incidentali, ma non la loro ricomposizione all’interno di un indice di rischio. In seguito al confronto teorico delle due metodologie, se ne è effettuato anche una comparazione pratica tramite la loro applicazione ad un deposito di GPL. Il confronto ha messo in luce come manchino, nella legislazione italiana relativa agli stabilimenti a rischio di incidente rilevante, indicazioni di dettaglio per la quantificazione del rischio, a differenza di quanto accade nella legislazione belga. Ciò lascia all’analista di rischio italiano una notevole arbitrarietà nell’effettuare ipotesi ed assunzioni che rendono poi difficile la comparazione del rischio di stabilimenti differenti. L’auspicio è che tale lacuna possa essere rapidamente superata.
Resumo:
In un periodo di tre anni è stato svolto un lavoro mirato alla valutazione delle complicanze correlate all’utilizzo dello stenting carotideo. Dopo la preparazione di un protocollo con definizione di tutti i fattori di rischio sono stati individuati i criteri di inclusione ed esclusione attraverso i quali arruolare i pazienti. Da Luglio 2004 a Marzo 2007 sono stati inclusi 298 pazienti e sono state valutate le caratteristiche della placca carotidea, con particolare riferimento alla presenza di ulcerazione e/o di stenosi serrata, la tortuosità dei vasi e il tipo di arco aortico oltre a tutti i fattori di rischio demografici e metabolici. E’ stato valutato quanto e se questi fattori di rischio incrementino la percentuale di complicanze della procedura di stenting carotideo. I pazienti arruolati sono stati suddivisi in due gruppi a seconda della morfologia della placca: placca complicata (placca con ulcera del diametro > di 2 mm e placca con stenosi sub occlusiva 99%) e placca non complicata. I due gruppi sono stati comparati in termini di epidemiologia, sintomatologia neurologica preoperatoria, tipo di arco, presenza di stenosi o ostruzione della carotide controlaterale, tipo di stent e di protezione cerebrale utilizzati, evoluzione clinica e risultati tecnici. I dati sono stati valutati mediante analisi statistica di regressione logistica multipla per evidenziare le variabili correlate con l’insuccesso. Dei 298 pazienti consecutivi sottoposti a stenting, 77 hanno mostrato una placca complicata (25,8%) e 221 una placca non complicata (74,2%). I due gruppi non hanno avuto sostanziali differenze epidemiologiche o di sintomatologia preoperatoria. Il successo tecnico si è avuto in 272 casi (91,2%) e sintomi neurologici post-operatosi si sono verificati in 23 casi (23.3%). Tutti i sintomi sono stati temporanei. Non si sono avute differenze statisticamente significative tra i due gruppi in relazione alle complicanze neurologiche e ai fallimenti tecnici. L’età avanzata è correlata ad un incremento dei fallimenti tecnici. I risultati dello studio portano alla conclusione che la morfologia della placca non porta ad un incremento significativo dei rischi correlati alla procedura di stenting carotideo e che l’indicazione alla CAS può essere posta indipendentemente dalla caratteristica della placca.
Resumo:
Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.
Resumo:
A far data dalla pubblicazione di un importante ed illustre contributo scientifico (GIORGIANNI, voce Causa (dir. priv.), in Enc. dir., VI, Milano, 1960), e dalla proposta, in esso contenuta, di restituire spazio a fattispecie attributive di diritti giustificate, sotto il profilo causale, dal solo riferimento espresso al rapporto fondamentale che ne costituisca fondamento (le c.d.
Resumo:
Data la forte prolificazione culturale, sbocciata a Faenza all’inizio del XIX secolo, nasce intorno al 1830, nel pieno centro storico della città, un giardino di stampo romantico. Si affacciano a questo piccolo parco due edifici: uno è il convento di Santa Caterina, l’altro è il palazzo più importante per il neoclassicismo in Romagna, palazzo Milzetti. La sua forte caratteristica è un nucleo centrale costituito da ponticelli, vasche e una particolarissima piccola costruzione di legno con tetto in paglia, affrescata all’interno con tempere di Romolo Liverani, risalente al 1851. Nel passare degli anni il parco subirà notevoli modifiche e nel 1947 sarà incautamente diviso a metà, tramite una recinzione. In questo modo il complesso romantico rimarrà di proprietà non più di palazzo Milzetti, ma del circolo del Dopo Lavoro Ferroviario. Attorno a questo nucleo all’inglese verranno nel tempo costruiti molte strutture a servizio del circolo, e demolite le aiuole e il verde che un tempo caratterizzavano questo luogo. Anche il capanno di legno rimarrà per anni abbandonato e senza la manutenzione necessaria per la sua sopravvivenza. Solo nel 1981 saranno condotti i primi lavori di restauro, con l’intento di recuperare il manufatto e il suo intorno. Ma solo un decennio dopo, una grossa nevicata crea grossi danni alla copertura del capanno, il quale verrà poi protetto da una struttura in tubi metallici, esteticamente poco congrua al carattere del sito. Il progetto di restauro, che viene qui presentato, riguarda in primo luogo il recupero dell’assetto originario del giardino, eliminando quindi la barriera che separa le due parti, per far acquisire una ritrovata spazialità e una originaria interezza. Dopo un rilievo dell’area, sono state quindi esaminate, una ad una, le piante del giardino e catalogate per capirne l’importanza estetica, storica o progettuale. In questo modo è stata scelta la vegetazione che dovrà essere rimossa per creare un ambiente più lineare, pulito e organizzato. Anche per gli elementi artificiali che sono stati incautamente aggiunti, è stata pensata la rimozione: pavimentazioni, palco, campo coperto da bocce, servizi igienici. L’area è stata risarcita tenendo in considerazione il tessuto originario dell’Ottocento, caratterizzato da aiuole verdi sinuose e sentieri in ghiaia. Sono stati utilizzati materiali conformi e già presenti nel parco, come la ghiaia, pavimentazione in ciottolato e aiuole erbose, ma al tempo stesso gli elementi di nuova costruzione non si vogliono del tutto mimetizzare con il resto ma denunciare, anche se sottovoce, la loro contemporaneità. Come secondo passo, si è pensato al restauro del capanno rustico. La prima necessaria operazione è stata quella di compiere il rilievo del manufatto e capire così in che modo fosse possibile intervenire. Il lavoro è stato quindi condotto su due registri: il primo quello dell’analisi dello stato di conservazione dei materiali, l’altro per capire la sua resistenza strutturale. Grazie ad un restauratore del legno, si è compreso quali trattamenti fossero più idonei, a seconda dell’essenza, dell’età e della collocazione. Per quanto riguarda la verifica strutturale si è giunti alla conclusione che l’edificio non è in uno stato di rischio e che quindi è necessaria la sola sostituzione degli elementi della copertura, ormai deteriorata. Proprio lo stato terminale del tetto, in paglia, è in condizioni precarie ed è necessario sostituirlo. Per quel che riguarda il complesso romantico, vengono ristuccate e impermeabilizzate le vasche e vengono poi sostituiti i parapetti lignei con altri che si avvicinano maggiormente alle forme riprodotte nella tela di Tancredi Liverani (1851) dove immortala l’edificio subito dopo la sua costruzione. Il nuovo progetto non vuole essere un intervento invasivo, ma desidera invece riprendere le linee e i punti di vista di un parco in stile romantico. Come infatti è noto, sono gli scorci, le pause e i percorsi le fondamenta del progetto, che vuole ridare a Faenza un’ area verde nel suo pieno centro storico.
Resumo:
Nella presente tesi viene analizzato in modo approfondito il ciclo integrato dell'acciaio che è uno dei metodi più consolidati e affermati per la produzione sia di semilavorati, sia di prodotti finiti di acciaio. L'approccio all'analisi del ciclo integrato dell'acciaio è di tipo dinamico e basato sulla simulazione, vale a dire che si cerca di capire come e in che modo i vari fattori del ciclo integrato interagiscono e si influenzano fra di loro per cercare in seguto di esplicitare tali dinamiche in un unico modello di simulazione. Sino ad ora infatti nella letteratura si possono trovare modelli che analizzano separatamente solo alcuni aspetti del ciclo integrato dell'acciaio. L'intenzione ultima di questa tesi è quella di fornire uno strumento in più che possa far capire, date determinate caratteristiche e obiettivi dell'azienda, quale sia la direzione più plausibile e giustificabile da seguire.
Resumo:
La tesi riguarda lo studio degli effetti indotti dal deposito di terreno che si trova sopra il substrato roccioso. la Valutazione è stata condotta con riferimento al sito del Duomo di Modena. Il segnale sismico che giunge dagli strati rocciosi profonfi, attraversando il deposito ed interagendo con il terreno soffice che lo compone, si modifica fino a giungere in superficie. Sono state condotte analisi in campo libero e con interazione suolo-struttura, facendo riferimento a 63 eventi sismici scelti in funzione dei risultati di specifiche analisi di pericolosità sismica condotte per il Duomo. Sono stati impiegati tre approcci di calcolo: monodimensionale lineare, tramite script implementato in Matlab a cura dello scrivente, monodimensionale lineare-equivalente, a mezzo del codice EERA, bidimensionale ad elementi finiti con software PLAXIS. Si sono ottenuti i periodi propri di vibrazione del deposito, i coefficienti di amplificazione stratigrafica, gli accelerogrammi e gli spettri di risposta elastici a livello del piano campagna utilizzabili direttamente per la verifica sismica di strutture poste in superficie nel centro di Modena. E' stato infine condotto un confronto scientifico tra gli spettri di risposta calcolati e quelli proposti dal D.M. 14/01/2008.
Resumo:
Questa tesi tratta dell'applicazione agli edifici esistenti di dispositivi per la produzione energetica da fonte rinnovabile: solare fotovoltaica, solare termica ed eolica. Dopo aver analizzato i motivi economici ed ambientali che oggi inducono ad affrontare il tema complesso dell'integrazione di queste tecnologie anche negli edifici esistenti, vengono documentate alcune decine di recenti istallazioni, reperite in ambito internazionale, costituendo così un piccolo repertorio di casi applicativi. Il ricorso alle fonti di energia rinnovabili in architettura ed il concetto di sostenibilità applicato alla progettazione sono temi di interesse mondiale che coinvolgono la riqualificazione energetica del parco edilizio esistente. Questo fenomeno sta generando una vera rivoluzione che, da una dimensione culturale promossa dalle politiche energetiche dei vari paesi, travolge svariati ambiti disciplinari, primo tra tutti l'architettura. L’elaborato è idealmente diviso in quattro parti, come di seguito specificato. Nel primo capitolo vengono trattate le problematiche che stanno portando alla diffusione delle energie rinnovabili nel mondo e descritte le varie forme e tecnologie con cui si utilizzano. Nel secondo e terzo capitolo sono trattati i temi dell’energia negli edifici e la sostenibilità nel progetto per la riqualificazione energetica in architettura. Negli ultimi tre capitoli si analizzano le caratteristiche, i componenti ed il funzionamento dei sistemi fotovoltaici, solari termici e micro/mini-eolici applicati ai manufatti edilizi. Si descrivono, inoltre, le tecnologie e le soluzioni per l’integrazione di detti impianti sugli edifici esistenti. L’ultima parte, costituita dall’allegato che contiene le schede di analisi di alcuni casi studio, descrive la realizzazione di progetti di riqualificazione energetica in cui sistemi fotovoltaici, solari termici ed eolici vengono applicati ad edifici di vario genere.
Resumo:
Il presente lavoro di tesi è stato realizzato al fine di valutare la distribuzione geografica ed i livelli ambientali di concentrazione per una serie di metalli (Cr, Cu, Ni, Zn, Mn, Co, V, Ba, Pb, Sr e Hg) presenti all’interno dei sedimenti della laguna costiera Pialassa Baiona, situata nei pressi del porto e dell’area industriale di Ravenna. L’area di studio considerata rappresenta un esempio di ambiente di transizione, dove i fattori fisici e chimici variano su scala spaziale e temporale e dove le attività antropiche, recenti e non, hanno provocato impatti significativi sullo stato di qualità dei sedimenti, delle acque e degli ecosistemi. Lo studio è stato progettato seguendo un disegno di campionamento ortogonale, che tiene conto del gradiente naturale terra-mare, tipico delle zone di transizione, e del gradiente antropico, legato alla vicinanza con l’area industriale. Sulla base di questo disegno sono state campionate 4 aree differenti e per ciascuna area sono stati scelti casualmente tre siti. La caratterizzazione dei sedimenti dal punto di vista chimico è stata effettuata determinando la frazione labile e quindi più biodisponibile dei metalli, oggetto del presente studio, per mezzo di una tecnica di estrazione parziale con HCl 1 M. Le concentrazioni biodisponibili ottenute sono state poi confrontate con il contenuto totale dei metalli, determinato mediante digestione totale al micronde. I sedimenti sono stati inoltre caratterizzati dal punto di vista granulometrico e del contenuto in sostanza organica (Loss on Ignition, LOI%). I risultati ottenuti dalle analisi chimiche sono stati confrontati con i valori tipi di fondo naturale del Mar Adriatico e con i valori guida di riferimento nazionale (SQA-MA) ed internazionale (ERL, ERM, TEL e PEL), al fine di valutare lo stato di qualità dei sedimenti della Baiona e di effettuare uno screening per individuare eventuali situazioni di rischio per gli organismi bentonici. I risultati ottenuti sono stati poi elaborati statisticamente con un analisi della varianza (ANOVA) con lo scopo di valutare la variabilità spaziale dei metalli nei campioni analizzati e la presenza di eventuali differenze significative.
Resumo:
Il lavoro presentato si propone di fornire un contributo all'implementazione di indagini finalizzate a misurare l'evoluzione delle intenzioni d'acquisto del consumatore italiano nei confronti degli OGM, data anche l'impossibilità al momento di avere indicazioni e dati sul comportamento (vista la quasi totale assenza dei prodotti OGM nella distribuzione, se si eccettuano i prodotti d'allevamento di animali alimentati con OGM per cui non è previsto nessun obbligo di etichettatura). Le coltivazioni transgeniche (Organismi Geneticamente Modificati) si stanno diffondendo abbastanza rapidamente nel contesto mondiale, dal 1996, primo anno in cui sono uscite dalla fase sperimentale, ad oggi. Nel 2008 la superficie globale delle colture biotech è stata di 125 milioni di ettari, circa il 9% in più rispetto ai 114 milioni del 2007, mentre il numero dei Paesi che hanno adottato varietà GM è giunto a 25. Di questi sono soprattutto Usa, Canada, Argentina, Brasile, Cina e India a trainare la crescita; le colture più diffuse sono soia, mais, cotone e colza, prodotti destinati principalmente al segmento feed e al segmento no-food e solo in minima parte al segmento food (cioè all'alimentazione diretta umana). Molte più resistenze ha incontrato tale sviluppo nei Paesi dell'Unione europea. A tutt'oggi le coltivazioni GM hanno raggiunto estensioni significative solamente in Spagna, con alcune decine di migliaia di ettari di mais GM. Mais che peraltro è l'unica produzione per cui è stata autorizzata una varietà GM alla coltivazione. Si intuisce in sostanza come in Europa si sia assunto un atteggiamento molto più prudente verso l'utilizzo su larga scala di tale innovazione scientifica, rispetto a quanto accaduto nei grandi Paesi citati in precedenza. Una prudenza dettata dal serrato dibattito, tuttora in corso, tra possibilisti e contrari, con contrapposizioni anche radicali, al limite dell'ideologia. D'altro canto, le indagini di Eurobarometro hanno messo in luce un miglioramento negli ultimi anni nella percezione dei cittadini europei verso le biotecnologie: dopo aver raggiunto un livello minimo di fiducia nel 1999, si è manifestata una lenta risalita verso i livelli di inizio anni '90, con percentuali di "fiduciosi" intorno al 55-60% sul totale della popolazione. Tuttavia, sebbene sulle biotecnologie in genere (l'Eurobarometro individua quattro filoni: alimenti contenenti OGM, terapie geniche, nanotecnologie e farmaci contenenti OGM), il giudizio sia abbastanza positivo, sugli alimenti permane un certo scetticismo legato soprattutto a considerazioni di inutilità della tecnologia, di rischio percepito e di accettabilità morale: per citare il caso italiano, che, contrariamente a quello che si potrebbe pensare, è tra i più elevati nel contesto europeo, solamente un cittadino su tre valuta positivamente gli alimenti contenenti OGM. Se si analizza, inoltre, il sentiment del settore agricolo, nel quale il tema riveste anche un'importanza di natura economico-produttiva, in quanto incidente sui comportamenti e sulla strategie aziendali, sembra emergere un'apertura significativamente più elevata, se non una vera e propria frattura rispetto all'opinione pubblica. Infatti, circa due maiscoltori lombardi su tre (Demoskopea, 2008), cioè la tipologia di agricoltori che potrebbe beneficiare di tale innovazione, coltiverebbero mais GM se la normativa lo consentisse. Ebbene, in tale contesto diventa d'estremo interesse, sebbene di non facile praticabilità , lo studio e l'implementazione di modelli volti a monitorare le componenti che concorrono a formare l'intenzione e, in ultima analisi, il comportamento, dei consumatori verso gli OGM. Un esercizio da attuare per lo più tramite una serie di misurazioni indirette che devono fermarsi necessariamente all'intenzione nel caso italiano, mentre in altri Paesi che hanno avuto legislazioni più favorevoli all'introduzione degli OGM stessi nella produzione food può perseguire approcci d'analisi field, focalizzati non solo sull'intenzione, ma anche sul legame tra intenzione ed effettivo comportamento. Esiste una vasta letteratura che studia l'intenzione del consumatore verso l'acquisto di determinati beni. Uno degli approcci teorici che negli ultimi anni ha avuto più seguito è stato quello della Teoria del Comportamento Pianificato (Ajzen, 1991). Tale teoria prevede che l'atteggiamento (cioè l'insieme delle convinzioni, credenze, opinioni del soggetto), la norma soggettiva (cioè l'influenza dell'opinione delle persone importanti per l'individuo) e il controllo comportamentale percepito (ovvero la capacità , auto-percepita dal soggetto, di riuscire a compiere un determinato comportamento, in presenza di un'intenzione di ugual segno) siano variabili sufficienti a spiegare l'intenzione del consumatore. Tuttavia, vari ricercatori hanno e stanno cercando di verificare la correlazione di altre variabili: per esempio la norma morale, l'esperienza, l'attitudine al rischio, le caratteristiche socio-demografiche, la cosiddetta self-identity, la conoscenza razionale, la fiducia nelle fonti d'informazione e via discorrendo. In tale lavoro si è cercato, quindi, di esplorare, in un'indagine "pilota" quali-quantitativa su un campione ragionato e non probabilistico, l'influenza sull'intenzione d'acquisto di prodotti alimentari contenenti OGM delle variabili tipiche della Teoria del Comportamento Pianificato e di alcune altre variabili, che, nel caso degli OGM, appaiono particolarmente rilevanti, cioè conoscenza, fiducia nelle fonti d'informazione ed elementi socio-demografici. Tra i principali risultati da porre come indicazioni di lavoro per successive analisi su campioni rappresentativi sono emersi: - La conoscenza, soprattutto se tecnica, sembra un fattore, relativamente al campione ragionato analizzato, che conduce ad una maggiore accettazione degli OGM; le stesse statistiche descrittive mettono in luce una netta differenza in termini di intenzione d'acquisto dei prodotti contenenti OGM da parte del sub-campione più preparato sull'argomento; - L'esplorazione della fiducia nelle fonti d'informazione è sicuramente da approfondire ulteriormente. Dall'indagine effettuata risulta come l'unica fonte che influenza con le sue informazioni la decisione d'acquisto sugli OGM è la filiera agroalimentare. Dato che tali attori si caratterizzano per lo più con indicazioni contrarie all'introduzione degli OGM nei loro processi produttivi, è chiaro che se il consumatore dichiara di avere fiducia in loro, sarà anche portato a non acquistare gli OGM; - Per quanto riguarda le variabili della Teoria del Comportamento Pianificato, l'atteggiamento mette in luce una netta preponderanza nella spiegazione dell'intenzione rispetto alla norma soggettiva e al controllo comportamentale percepito. Al contrario, queste ultime appaiono variabili deboli, forse perchè a tutt'oggi la possibilità concreta di acquistare OGM è praticamente ridotta a zero ; - Tra le variabili socio-demografiche, l'influenza positiva del titolo di studio sulla decisione d'acquisto sembra confermare almeno in parte quanto emerso rispetto alla variabile "conoscenza"; - Infine, il fatto che il livello di reddito non influisca sull'intenzione d'acquisto appare abbastanza scontato, se si pensa, ancora una volta, come a tutt'oggi gli OGM non siano presenti sugli scaffali. Il consumatore non ha al momento nessuna idea sul loro prezzo. Decisamente interessante sarà indagare l'incidenza di tale variabile quando il "fattore OGM" sarà prezzato, presumibilmente al ribasso rispetto ai prodotti non OGM.
Resumo:
Il carcinoma polmonare rappresenta un problema socio-sanitario di grande rilievo, essendo la prima causa di morte per neoplasia. Il carcinoma polmonare non a piccole cellule (non small cell lung cancer - NSCLC) rappresenta la variante istologica più frequente (80% dei casi di tumore polmonare). Al momento della diagnosi circa il 60-70% dei pazienti presenta una malattia in stadio avanzato o metastatico non essendo suscettibile di trattamento chirurgico. Per questi pazienti il trattamento chemioterapico determina un prolungamento della sopravvivenza e un miglioramento della qualità della vita rispetto alla sola terapia di supporto, identificandosi come standard terapeutico. L'individuazione del migliore trattamento chemioterapico per questo subset di pazienti rappresenta pertanto una delle principali sfide della ricerca oncologica. I regimi polichemioterapici si possono dividere schematicamente in tre generazioni in relazione all'introduzione nel corso degli anni di nuovi agenti chemioterapici. Con l'avvento dei regimi di terza generazione, il trattamento del NSCLC avanzato sembra aver raggiunto un plateau, mancando infatti chiare dimostrazioni di superiorità di un regime di ultima generazione rispetto ad un altro. Tra questi l'associazione cisplatino e gemcitabina rappresenta uno dei regimi standard più utilizzati in considerazione del suo favorevole rapporto costo-beneficio. Al fine di migliorare i risultati del trattamento chemioterapico in termini di attività ed efficacia, una possibilità consiste nell'individuazione di parametri predittivi che ci consentano di identificare il miglior trattamento per il singolo paziente. Tra i vari parametri predittivi valutabili, un crescente interesse è stato rivolto a quelli di carattere genetico, anche grazie all'avvento di nuove tecniche di biologia molecolare e al sequenziamento del genoma umano che ha dato nuovo impulso a studi di farmacogenetica e farmacogenomica. Sulla base di queste considerazioni, in questa tesi è stato effettuato uno studio mirato a valutare l'espressione di determinanti molecolari coinvolti nel meccanismo di azione di gemcitabina e cisplatino in pazienti affetti dai due tipi istologici principali di NSCLC, adenocarcinomi e carcinomi squamocellulari. Lo studio dei livelli di espressione genica è stata effettuata in tessuti di 69 pazienti affetti da NSCLC arruolati presso l'Istituto Europeo di Oncologia di Milano. In particolare, mediante Real Time PCR è stata valutata l'espressione genica di ERCC1, hENT1, dCK, 5'-NT, CDA, RRM1 e RRM2 in 85 campioni isolati con microdissezione da biopsie provenienti dai tessuti polmonari normali o tumorali o dalle metastasi linfonodali. Le analisi di questi tessuti hanno mostrato differenze significative per i pattern di espressione genica di diversi determinanti molecolari potenzialmente utile nel predire l'efficacia di gemcitabina/cisplatino e per personalizzare i trattamenti in pazienti affetti da cancro. In conclusione, l'evoluzione delle tecniche di biologia molecolare promossa dagli studi di farmacogenetica racchiude in sè notevoli potenzialità per quanto concerne l'ideazione di nuovi protocolli terapeutici. Identificando le caratteristiche genotipiche e i livelli di espressione geniche di determinanti molecolari implicati nella risposta ai farmaci potremmo infatti predisporre delle mappe di chemiosensibilità -chemioresistenza per ciascun paziente, nell'ottica di approntare di volta in volta le più appropriate terapie antitumorali in base alle caratteristiche genetiche del paziente e della sua patologia neoplastica.
Resumo:
Lo scopo di questa dissertazione è quello di costruire un modello di promozione della salute nel contesto di lavoro in relazione al consumo di sostanze psicoattive fra lavoratori, attraverso il confronto tra la situazione italiana e inglese. L’ipotesi di fondo rimanda all’idea che i luoghi di lavoro possano rappresentare setting d’elezione per i progetti di prevenzione non solo perché alcuni studi dimostrano l’esistenza di fattori di rischio connessi alla mansione rispetto alle condotte relative allo stile di vita, ma anche perché il consumo di alcol e droghe è altamente diffuso tra i lavoratori e questo comporta rischi per la sicurezza e la salute personale nonché quella dei colleghi di lavoro. Si tratta quindi di indagare il rapporto tra contesto lavorativo e utilizzo di sostanze al fine di suggerire alla luce degli studi internazionali in materia e delle riflessioni condotte dai soggetti coinvolti nella ricerca che si andrà a presentare linee guida e indicazioni operative per la realizzazione di interventi di promozione alla salute nei contesti professionali. A tal fine, saranno analizzati gli esiti di 13 focus group che hanno coinvolto esperti italiani e 6 interviste somministrate a esperti inglesi volti a definire la situazione attuale in Italia e Gran Bretagna in materia di prevenzione del consumo di alcol e droghe nei luoghi di lavoro. In particolare, l’analisi verterà sulle seguenti aree: - Percezione circa la diffusione dei consumi nei luoghi di lavoro - Presentazione delle politiche adottate, in logica comparativa, tra i due paesi. - Analisi critica degli interventi e problematiche aperte. L’analisi del materiale empirico permette di delineare due modelli costruiti sulla base dei focus group e delle interviste: - in Italia si può affermare che prevalga il cd. modello della sicurezza: di recente trasformazione, questo sistema enfatizza la dimensione del controllo, tanto che si parla di sorveglianza sanitaria. É orientato alla sicurezza concepita quale rimozione dei fattori di rischio. Il consumo di sostanze (anche sporadico) è inteso quale espressione di una patologia che richiede l’intervento sanitario secondo modalità previste dal quadro normativo: una procedura che annulla la discrezionalità sia del datore di lavoro sia del medico competente. Si connota inoltre per contraddizioni interne e trasversali rispetto alle categorie lavorative (i controlli non si applicano alle professioni associate a maggiore prestigio sociale sebbene palesemente associate a rischio, come per esempio i medici) e alle sostanze (atteggiamento repressivo soprattutto verso le droghe illegali); - in Gran Bretagna, invece, il modello si configura come responsabilità bilaterale: secondo questo modello, se è vero che il datore di lavoro può decidere in merito all’attuazione di misure preventive in materia di alcol e droghe nei luoghi di lavoro, egli è ritenuto responsabile della mancata vigilanza. D’altro canto, il lavoratore che non rispetta quanto previsto nella politica scritta può essere soggetto a licenziamento per motivi disciplinari. Questo modello, particolarmente attento al consumo di tutte le sostanze psicoattive (legali e illegali), considera il consumo quale esito di una libera scelta individuale attraverso la quale il lavoratore decide di consumare alcol e droghe così come decide di dedicarsi ad altre condotte a rischio. Si propone di ri-orientare le strategie analizzate nei due paesi europei presi in esame attraverso la realizzazione di un modello della promozione della salute fondato su alcuni punti chiave: – coinvolgimento di tutti i lavoratori (e non solo coloro che svolgono mansioni a rischio per la sicurezza) al fine di promuovere benessere secondo un approccio olistico di salute, orientato ad intervenire non soltanto in materia di consumo di sostanze psicoattive (legali e illegali), ma più in generale sulle condotte a rischio; – compartecipazione nelle diverse fasi (programmazione, realizzazione e valutazione del progetto) del lavoratore, datore di lavoro e medico competente secondo una logica di flessibilità, responsabilizzazione condivisa fra i diversi attori, personalizzazione e co-gestione dell’intervento; – azione volta a promuovere i fattori di protezione agendo simultaneamente sul contrasto dei fattori di rischio (stress, alienazione, scarso riconoscimento del ruolo svolto), attraverso interventi che integrano diverse strategie operative alla luce delle evidenze scientifiche (Evidence-Based Prevention); – ricorso a strumenti di controllo (drug testing) subordinato all’esigenza di tutelare l’incolumità fisica del lavoratore e dei colleghi, da attuarsi sempre e comunque attraverso prassi che non violino la privacy e attraverso strumenti in grado di verificare l’effettivo stato di alterazione psico-fisica sul luogo di lavoro; – demedicalizzazione delle situazioni di consumo che non richiedono un intervento prettamente sanitario, ma che al contrario potrebbero essere affrontate attraverso azioni incentrate sul care anziché la cure; – messa a disposizione di servizi ad hoc con funzione di supporto, counselling, orientamento per i lavoratori, non stigmatizzanti e con operatori di formazione non solamente sanitaria, sull’esempio degli EAPs (Employee Assistence Programs) statunitensi. Si ritiene che questo modello possa trasformare i contesti di lavoro da agenzie di controllo orientate alla sicurezza a luoghi di intervento orientati al benessere attraverso un’azione sinergica e congiunta volta a promuovere i fattori di protezione a discapito di quelli di rischio in modo tale da intervenire non soltanto sul consumo di sostanze psicotrope, ma più in generale sullo stile di vita che influenza la salute complessiva.
Resumo:
Questo progetto intende indagare il rapporto privilegiato che Derek Walcott intesse con gli scrittori che lo hanno preceduto, e in particolare con T.S.Eliot. Attraverso l ‘analisi di un percorso mitografico letterario emerge la rilevanza che per entrambi i poeti assumono sia il paesaggio che il mito. La ricerca svolta si focalizza prevalentemente su The Waste Land di T.S.Eliot e Mappa del Nuovo Mondo di Derek Walcott.