935 resultados para Influenza aviaire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Complice l'entrata a far parte dell'Unione Europea e del risultante recepimento delle sue normative e sopratutto dei suoi principi, nel nostro Paese si sta verificando un sostanziale incremento delle realtà territoriali attivate sul fronte della raccolta differenziata. L'intercettazione delle frazioni compostabili (umido e scarti verdi) sta assumendo un ruolo di sempre maggior rilevanza quantitativa nella raccolta differenziata. Infatti dal 1997 al 2007 si è passati da circa 604.000 ton di frazioni raccolte a 2.368.000 ton. Questo sistema di recupero degli scarti organici è attualmente il più diffuso nel nostro Paese. Esso presenta indubbi problemi tecnico-gestionali, sopratutto riconducibili alle emissioni odorigene che raramente risultano però nocive o addirittura tossiche per la salute dell'ambiente e delle persone. Nonostante questo dato gli impianti di compostaggio incontrano spesso una diffusa e forte avversione da quella parte di popolazione interessata ad accogliere l'impianto sul proprio territorio rispetto anche ad impianti di indubbia maggior pericolosità. Per via di questo generale atteggiamento in Italia risulta pertanto esistere una normativa particolarmente stringente sulle garanzie ambientali necessarie per la realizzazione di impianti di compostaggio confrontata con quella europea. Questa normativa però lascia inalterata la difficoltà nella diffusione di un'impiantistica adeguata a rispondere alle necessità della raccolta differenziata. Questo problema risulta ancor più rilevante come nel caso dell'impianto oggetto di studio situato in ambiente altamente urbanizzato. In questi territori ad alta densità abitativa spesso si assiste alla degenerazione del sistema dove protratte conflittualità con la popolazione interessata ostacolano l'esercizio o portano alla temporanea cessazione delle attività degli impianti esistenti. Ulteriore problema risulta essere il fatto che anche in impianti nuovi criteri corretti di progettazione e costruzione risultano essere alle volte non sufficienti per evitare le precedenti problematiche, diventa quindi oltremodo difficoltoso ottenere gli stessi risultati intervenendo su impianti già esistenti con misure di riqualificazione adeguate e compatibili con la sostenibilità economica dell'impianto. Per tanto questa tesi si propone di individuare le problematiche esistenti e proporre soluzioni efficaci al rilevante problema delle emissioni odorigene che sembra caratterizzare questo impianto, tramite uno studio dello stato di fatto e l'analisi delle criticità riscontrate, concentrandosi in modo particolare sul biofiltro e sulla biofiltrazione, che sembra essere il problema principale che influenza la qualità delle emissioni. Il caso oggetto di questa tesi riguarda un impianto avviato nel 2004 che, dopo un lungo periodo di esercizio caratterizzato da problematiche ambientali mai pienamente risolte, è stato sottoposto dalla seconda metà del 2008 ad una semplice e sistematica revisione delle procedure gestionali e mirati interventi tecnici ed impiantistici nell'ambito di un percorso di risanamento e riqualificazione. 5

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il trasporto intermodale ha acquisito un ruolo sempre più importante nello scenario dei trasporti comunitari merci durante gli ultimi quindici anni. La sfida che si era posta a inizi anni novanta in Europa consisteva nello sviluppo di una rete europea di trasporto combinato strada-ferrovia. A questo fine è stata fondamentale la cooperazione tra gli operatori del settore e le istituzioni (comunitarie e nazionali), nonché l’impulso dato dalla liberalizzazione del trasporto ferroviario, che fortemente influenza il trasporto combinato. Questa tesi, in particolare, intende studiare il ruolo del Sistema Gateway come strumento innovativo e di nuovo impulso per lo sviluppo della rete di trasporto combinato strada-rotaia in ambito europeo. Grazie a questo sistema, le unità di carico, dirette in una determinata regione, giungono ad un "Terminal Gateway", dove secondo un sistema di tipo “hub-and-spoke” vengono trasbordate a mezzo gru su treni “Shuttle” verso la destinazione finale. Tutto ciò avviene con operazioni fortemente automatizzate e veloci con sensibile vantaggio in termini di tempo e costi. La tesi parte da una descrizione del trasporto intermodale, facendo un focus sugli aspetti strutturali, tecnici e organizzativi del trasporto combinato strada – rotaia e del suo funzionamento. Passando attraverso l’analisi delle reti di trasporto merci in Europa, nel secondo capitolo. Il terzo capitolo entra nel vivo della Tesi introducendo l’oggetto dell’indagine: il Sistema Gateway nell’ambito dello sviluppo della rete europea del traffico combinato strada-ferrovia. Nella seconda parte della tesi è voluto studiare il Sistema Gateway con l’ausilio dei metodi d’analisi che vengono applicati per la scelta fra progetti alternativi nel campo della pianificazione dei trasporti, pertanto sono stati presi in rassegna e descritti i metodi più utilizzati: l’Analisi Benefici-Costi e l’Analisi Multicriteria. Nel caso applicativo è stata utilizzata l’Analisi Benefici-Costi. Infine nel capitolo sesto è stato presentato dettagliatamente il caso reale di studio che riguarda il progetto per la trasformazione del terminal di Verona Quadrante Europa in un terminal gateway.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa si ripropone in prima istanza di analizzare le origini e l’evoluzione del concetto di sostenibilità e successivamente di prendere in considerazione uno dei tanti mezzi che consentono di perseguirla: la gestione della sosta. Per molti anni infatti, a partire dal momento in cui sono iniziate ad emergere le esternalità negative legate al traffico, si è pensato che quello dei parcheggi fosse solo un ulteriore problema. Solo di recente, dalla fine degli anni ’90, fatta eccezione per il caso della Gran Bretagna che ha fatto da capofila già a partire dagli anni ’80, si è iniziato a considerare la sosta come parte della soluzione dei problemi di congestione, inquinamento e di vivibilità delle città. Verrà analizzata perciò nel secondo capitolo l’evoluzione delle politiche della sosta a livello europeo, con particolare attenzione all’operato svolto dall’EPA (European Parking Association) associazione leader nel settore riconosciuta dall’Unione Europea e sostenuta da 18 Paesi membri tra cui anche l’Italia. Il lavoro svolto da quest’associazione, nata nei primi anni ’80, è quello di decidere insieme agli associati delle linee comuni da seguire per migliorare le politiche a livello europeo riguardo la gestione della sosta. Si tratta nella pratica di studi, convegni e analisi degli effetti prodotti da provvedimenti intrapresi nelle varie città che hanno iniziato ad introdurre la regolamentazione della sosta. Sempre nel secondo capitolo saranno quindi presentate le linee guida europee nell’ambito dei parcheggi e si analizzeranno casi di “Best Practices” di alcuni Paesi che hanno introdotto provvedimenti per la gestione della sosta. Nel terzo capitolo invece viene considerata la situazione in Italia parlando in principio di Aipark, l’associazione italiana operatori nel settore dei parcheggi che partecipa alle attività dell’Epa e prendendo in esame in seguito le politiche adottate a livello nazionale e nello specifico in alcune tra le più importanti città italiane. Si vedrà come sia ancora troppo marcata la distanza del nostro Paese dai progressi registrati in altri Paesi dell’UE, con le dovute eccezioni. Per quel che riguarda l’aspetto normativo è significativo il fatto che, nonostante il riconoscimento della forte influenza che le politiche della sosta hanno sulla regolazione del traffico, ci siano ancora molte lacune legislative e che spesso la sosta non compaia tra i soggetti delle leggi in tale settore. La legislazione italiana nell’ambito dei parcheggi verrà analizzata nel quarto capitolo. Successivamente, nei capitoli 5 e 6 si parlerà delle fasi preliminari della redazione del Piano della Sosta di Casalecchio di Reno. Il Piano della Sosta è uno dei Piani Particolareggiati che costituiscono il 2° livello di progettazione del PUT (Piano Urbano del Traffico) e rappresenta uno strumento di pianificazione utile ad analizzare lo stato di fatto del sistema dei parcheggi di una città in modo da coglierne le criticità e fornire eventualmente le soluzioni per ovviare ad esse. Nel quinto capitolo viene effettuato un inquadramento territoriale di Casalecchio e si parlerà delle problematiche della sosta emerse nel PGTU (Piano Generale del Traffico Urbano) che costituisce il progetto preliminare o Piano Quadro del PUT. Le fasi attraverso le quali viene elaborato un Piano della sosta si possono sintetizzare nei seguenti punti: - Studio della normativa nazionale e locale e di esempi significativi di altre realtà nell’ambito della sosta. - Analisi dello stato di fatto in termini di domanda e offerta. - Indagini mediante incontri pubblici, distribuzione di questionari o interviste dirette, per cogliere le esigenze degli utenti che usufruiscono del servizio. - Analisi delle eventuali criticità emerse. - Progettazione del nuovo assetto della sosta. - Campagna di sensibilizzazione per fare “accettare” con più facilità i cambiamenti agli utenti. Nel sesto capitolo di questa tesi, e negli allegati si possono consultare i risultati delle indagini su domanda e offerta condotte da TPS (Transport Planning Service), azienda che svolge attività di pianificazione e progettazione, di fornitura software, oltre che indagini e rilievi nell’ambito dei trasporti. Verranno descritte le modalità di rilievo e verranno presentati i risultati ottenuti dall’elaborazione dei dati raccolti, con qualche accenno alle possibili soluzioni per risolvere le problematiche emerse. La fase di progettazione vera e propria degli interventi non verrà invece trattata in questa sede.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le aree costiere hanno un ruolo fondamentale nello sviluppo economico, sociale e politico della maggior parte dei paesi; esse supportano infatti diversi ecosistemi produttivi che rendono disponibili beni e servizi. L'importanza economica delle aree costiere è destinata a una considerevole crescita a causa del costante aumento delle popolazioni, delle industrie e delle attività  ricreazionali che si concentrano sempre di più sulle coste e ciò può provocare un'alterazione delle linee di costa, imputabile a più fattori e un deterioramento delle condizioni naturali. E' necessario anche tenere da conto dei processi erosivi, sia imputabili a cause naturali (correnti oceaniche, movimenti di marea; azione del vento) sia a cause antropiche (subsidenza del terreno indotta dall'uomo, dragaggio al largo, riduzione del rifornimento di sedimento dai fiumi, distruzione di letti algali, paludi e dune sabbiose). A questo panorama va poi aggiunto il problema dell'innalzamento del livello del mare e dell'aumento delle frequenze di tempeste, come conseguenza del cambiamento climatico globale. In questo contesto quindi, le strutture rigide di difesa contro l'erosione e le mareggiate sono diventate molto comuni nelle aree costiere, coinvolgendo in alcune regioni più della metà della linea di costa. Il meccanismo di difesa attuato dalle barriere consiste nel provocare una riduzione dell'energia delle onde e conseguentemente in una limitazione della quantità di sedimento che viene da loro rimosso dalla spiaggia. La presenza di strutture rigide di difesa generalmente comporta una perdita di habitat di fondale molle e, a causa delle variazioni idrodinamiche che la loro presenza comporta, anche delle comunità ad esso associate, sia su scala locale, che su scala regionale. Uno dei problemi che tali strutture possono indurre è l'eccessiva deposizione di detrito prodotto dalle specie che si insediano sul substrato duro artificiale, che normalmente non fanno parte delle comunità "naturali" di fondo molle circostanti le strutture. Lo scopo di questo studio è stato quello di cercare di evidenziare gli effetti che la deposizione di tale detrito potesse avere sulle comunita meiobentoniche di fondale molle. A tale fine è stata campionata un'area antistante la località di Lido di Dante (RA), la quale è protetta dal 1996 da una struttura artificiale, per fronteggiare il problema dell'erosione della zona, in aumento negli ultimi decenni. La struttura è costituita da una barriera semisoffolta e tre pennelli, di cui uno completamente collegato alla barriera. A circa 50 m dalla barriera, e alla profondità di 4 m circa, è stato allestito un esperimento manipolativo in cui è stato valutato l'effetto della deposizione delle due specie dominanti colonizzanti la barriera, Ulva sp. e Mitili sp. sull'ambiente bentonico, e in particolare sulla comunità  di meiofauna. Ulva e Mitili sono stati posti in sacche di rete che sono state depositate sul fondo al fine di simulare la deposizione naturale di detrito, e tali sacche hanno costituito i trattamenti dell'esperimento, i quali sono stati confrontati con un Controllo, costituito da sedimento non manipolato, e un Controllo Procedurale, costituito da una sacca vuota. Il campionamento è stato fatto in tre occasioni nel giugno 2009 (dopo 2 giorni, dopo 7 giorni e dopo 21 giorni dall'allestimento dell'esperimento) per seguire la dinamica temporale degli effetti del detrito. Per ogni combinazione tempo/trattamento sono state prelevate 4 repliche, per un totale di 48 campioni. Successivamente sono stati prelevati ulteriori campioni di meiofauna in condizioni naturali. In particolare sono stati raccolti in due Posizioni diverse, all'Interno e all'Esterno del pennello posto più a Sud, e su due substrati differenti, rispettivamente Ulva proveniente dalle barriere e sedimento privo di detrito. Per ogni combinazione Posizione/Substrato sono state prelevate 3 repliche, ottenendo un totale di 12 campioni. Tutti i campioni prelevati sono stati poi trattati in laboratorio tramite la procedura di filtratura, pulizia e centrifuga indicata dal protocollo. A questa fase è seguito il sorting al microscopio, durante il quale la meiofauna è stata identificata ed enumerata a livello di taxa maggiori. Per quanto riguarda il taxon più abbondante, quello dei Nematodi, si è proceduto anche all'analisi della distribuzione della biomassa per classi di taglia, in quanto descrittore funzionale delle comunità. Per la costruzione degli spettri di biomassa per classi di taglia sono state misurate la lunghezza e larghezza dei primi 100 Nematodi presenti nei campioni. A partire da tali valori dimensionali è stata calcolata la biomassa di ogni individuo, usata poi per la costruzione dei size spectra, tramite tre metodiche messe a confronto: "Nematode Biomass Spectra" (NBS), "Normalised Nematode Biomass Spectra"(NNBS), "Mean Cumulative Biomass Spectra" (MC-NBS). Successivamente la composizione e la struttura della comunità meiobentonica, in termini di consistenza numerica e di rapporti reciproci di densità degli organismi che la compongono e variabili dimensionali, sono state analizzate mediante tecniche di analisi univariate e multivariate. Ciò che emerge generalmente dai risultati dell'esperimento è la mancanza di interazione significativa tra i due fattori, tempi e trattamenti, mentre sono risultati significativi i due fattori principali, considerati singolarmente. Tali esiti sono probabilmente imputabili all'elevata variabilità fra campioni dei trattamenti e delle patches di controllo. Nonostante ciò l'analisi dei risultati ottenuti permette di effettuare alcune considerazioni interessanti. L'analisi univariata ha mostrato che nel confronto tra trattamenti non ci sono differenze significative nel numero medio di taxa rinvenuti, mentre il livello di diversità e di equidistribuzione degli individui nei taxa differisce in maniera significativa, indicando che la struttura delle comunità varia in funzione dei trattamenti e non in funzione del tempo. Nel trattamento Ulva si osservano le densità più elevate della meiofauna totale imputabile prevalentemente alla densità dei Nematodi. Tuttavia, i valori di diversità e di equiripartizione non sono risultati più elevati nei campioni di Ulva, bensì in quelli di Mitili. Tale differenza potrebbe essere imputabile all'inferiorità numerica dei Nematodi nei campioni di Mitili. Questo andamento è stato giustificato dai differenti tempi di degradazione di Mitili e Ulva posti nelle sacche durante l'esperimento, dai quali emerge una più rapida degradazione di Ulva; inoltre la dimensione ridotta della patch analizzata, i limitati tempi di permanenza fanno sì che l'Ulva non rappresenti un fattore di disturbo per la comunità analizzata. Basandosi su questo concetto risulta dunque difficile spiegare l'inferiorità numerica dei Nematodi nei campioni del trattamento Mitili, in quanto i tempi di degradazione durante l'esperimento sono risultati più lenti, ma è anche vero che è nota l'elevata resistenza dei Nematodi ai fenomeni di ipossia/anossia creata da fenomeni di arricchimento organico. E' possibile però ipotizzare che la presenza delle valve dei Mitili aumenti la complessità dell'habitat e favorisca la colonizzazione da parte di più specie, tra cui specie predatrici. Tale effetto di predazione potrebbe provocare la riduzione dell'abbondanza media dei Nematodi rispetto a Ulva e al Controllo, in quanto i Nematodi costituiscono circa l'85% della meiofauna totale rinvenuta nei campioni. A tale riduzione numerica, però, non corrisponde un decremento dei valori medi di biomassa rilevati, probabilmente a causa del fatto che l'arricchimento organico dovuto ai Mitili stessi favorisca la permanenza degli individui più facilmente adattabili a tali condizioni e di dimensioni maggiori, oppure, la colonizzazione in tempi successivi delle patches a Mitili da parte di individui più grandi. Anche i risultati dell'analisi multivariata sono in accordo con quanto rilevato dall'analisi univariata. Oltre alle differenze tra tempi si evidenzia anche un'evoluzione della comunità nel tempo, in particolar modo dopo 7 giorni dall'allestimento dell'esperimento, quando si registrano il maggior numero di individui meiobentonici e il maggior numero di taxa presenti. Il taxon che ha risentito maggiormente dell'influenza dei tempi è quello degli Anfipodi, con densità maggiori nei campioni prelevati al secondo tempo e sul trattamento Ulva. E'importante considerare questo aspetto in quanto gli Anfipodi sono animali che comprendono alcune specie detritivore e altre carnivore; le loro abitudini detritivore potrebbero quindi aumentare il consumo e la degradazione di Ulva, spiegando anche la loro abbondanza maggiore all'interno di questo trattamento, mentre le specie carnivore potrebbero concorrere al decremento del numero medio di Nematodi nei Mitili. Un risultato inatteso della sperimentazione riguarda l'assenza di differenze significative tra trattamenti e controlli, come invece era lecito aspettarsi. Risultati maggiormente significativi sono emersi dall'analisi del confronto tra sedimento privo di detrito e sedimento contenente Ulva provenienti dal contesto naturale. Relativamente all'area esterna alla barriera, sono stati confrontati sedimento privo di detrito e quello sottostante l'Ulva, nelle condizioni sperimentali e naturali. Globalmente notiamo che all'esterno della barriera gli indici univariati, le densità totali di meiofauna, di Nematodi e il numero di taxa, si comportano in maniera analoga nelle condizioni sperimentali e naturali, riportando valori medi maggiori nei campioni prelevati sotto l'Ulva, rispetto a quelli del sedimento privo di detrito. Differente appare invece l'andamento delle variabili e degli indici suddetti riguardanti i campioni prelevati nell'area racchiusa all'interno della barriera, dove invece i valori medi maggiori si rilevano nei campioni prelevati nel sedimento privo di detrito. Tali risultati possono essere spiegati dall'alterazione dell'idrodinamismo esercitato dalla barriera, il quale provoca maggiori tempi di residenza del detrito con conseguente arricchimento di materia organica nell'area interna alla barriera. Le comunità dei sedimenti di quest'area saranno quindi adattate a tale condizioni, ma la deposizione di Ulva in un contesto simile può aggravare la situazione comportando la riduzione delle abbondanze medie dei Nematodi e degli altri organismi meiobentonici sopracitata. Per quel che riguarda i size spectra la tecnica che illustra i risultati in maniera più evidente è quella dei Nematode Biomass Spectra. I risultati statistici fornitici dai campioni dell'esperimento, non evidenziano effetti significativi dei trattamenti, ma a livello visivo, l'osservazione dei grafici evidenzia valori medi di biomassa maggiori nei Nematodi rilevati sui Mitili rispetto a quelli rilevati su Ulva. Differenze significative si rilevano invece a livello dei tempi: a 21 giorni dall'allestimento dell'esperimento infatti, le biomasse dei Nematodi misurati sono più elevate. Relativamente invece ai size spectra costruiti per l'ambiente naturale, mostrano andamento e forma completamente diversi e con differenze significative tra l'interno e l'esterno della barriera; sembra infatti che la biomassa nella zona interna sia inibita, portando a densità maggiori di Nematodi, ma di dimensioni minori. All'esterno della barriera troviamo invece una situazione differente tra i due substrati. Nel sedimento prelevato sotto l'Ulva sembra infatti che siano prevalenti le classi dimensionali maggiori, probabilmente a causa del fatto che l'Ulva tende a soffocare le specie detritivore, permettendo la sopravvivenza delle specie più grosse, composte da predatori poco specializzati, i quali si cibano degli organismi presenti sull'Ulva stessa. Nel sedimento privo di detrito, invece, la distribuzione all'interno delle classi segue un andamento completamente diverso, mostrando una forma del size spectra più regolare. In base a questo si può ipotizzare che la risposta a questo andamento sia da relazionarsi alla capacità di movimento dei Nematodi: a causa della loro conformazione muscolare i Nematodi interstiziali di dimensioni minori sono facilitati nel movimento in un substrato con spazi interstiziali ridotti, come sono nel sedimento sabbioso, invece Nematodi di dimensioni maggiori sono più facilitati in sedimenti con spazi interstiziali maggiori, come l'Ulva. Globalmente si evidenzia una risposta della comunità  bentonica all'incremento di detrito proveniente dalla struttura rigida artificiale, ma la risposta dipende dal tipo di detrito e dai tempi di residenza del detrito stesso, a loro volta influenzati dal livello di alterazione del regime idrodinamico che la struttura comporta. Si evince inoltre come dal punto di vista metodologico, le analisi univariate, multivariate e dei size spectra riescano a porre l'accento su diverse caratteristiche strutturali e funzionali della comunità. Rimane comunque il fatto che nonostante la comunità scientifica stia studiando metodiche "taxonomic free" emerge che, se da un lato queste possono risultare utili, dall'altro, per meglio comprendere l'evoluzione di comunità, è necessaria un'analisi più specifica che punti all'identificazione almeno delle principali famiglie. E'importante infine considerare che l'effetto riscontrato in questo studio potrebbe diventare particolarmente significativo nel momento in cui venisse esteso alle centinaia di km di strutture artificiali che caratterizzano ormai la maggior parte delle coste, la cui gestione dovrebbe tenere conto non soltanto delle esigenze economico-turistiche, e non dovrebbe prescindere dalla conoscenza del contesto ambientale in cui si inseriscono, in quanto, affiancati a conseguenze generali di tali costruzioni, si incontrano molti effetti sitospecifici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fenomeni di trasporto ed elettrostatici in membrane da Nanofiltrazione La capacità di predire le prestazioni delle membrane da nanofiltrazione è molto importante per il progetto e la gestione di processi di separazione a membrana. Tali prestazioni sono strettamente legate ai fenomeni di trasporto che regolano il moto dei soluti all’interno della matrice della membrana. Risulta, quindi, di rilevante importanza la conoscenza e lo studio di questi fenomeni; l’obiettivo finale è quello di mettere a punto modelli di trasporto appropriati che meglio descrivano il flusso dei soluti all’interno della membrana. A fianco dei modelli di trasporto ricopre, quindi, una importanza non secondaria la caratterizzazione dei parametri aggiustabili propri della membrana sulla quale si opera. La procedura di caratterizzazione di membrane deve chiarire le modalità di svolgimento delle prove sperimentali e le finalità che esse dovrebbero conseguire. Tuttavia, nonostante i miglioramenti concernenti la modellazione del trasporto di ioni in membrana ottenuti dalla ricerca negli ultimi anni, si è ancora lontani dall’avere a disposizione un modello univoco in grado di descrivere i fenomeni coinvolti in maniera chiara. Oltretutto, la palese incapacità del modello di non riuscire a prevedere gli andamenti sperimentali di reiezione nella gran parte dei casi relativi a miscele multicomponenti e le difficoltà legate alla convergenza numerica degli algoritmi risolutivi hanno fortemente limitato gli sviluppi del processo anche e soprattutto in termini applicativi. Non da ultimo, si avverte la necessità di poter prevedere ed interpretare l’andamento della carica di membrana al variare delle condizioni operative attraverso lo sviluppo di un modello matematico in grado di descrivere correttamente il meccanismo di formazione della carica. Nel caso di soluzioni elettrolitiche, infatti, è stato riconosciuto che la formazione della carica superficiale è tra i fattori che maggiormente caratterizzano le proprietà di separazione delle membrane. Essa gioca un ruolo importante nei processi di trasporto ed influenza la sua selettività nella separazione di molecole caricate; infatti la carica di membrana interagisce elettrostaticamente con gli ioni ed influenza l’efficienza di separazione degli stessi attraverso la partizione degli elettroliti dalla soluzione esterna all’interno dei pori del materiale. In sostanza, la carica delle membrane da NF è indotta dalle caratteristiche acide delle soluzioni elettrolitiche poste in contatto con la membrana stessa, nonché dal tipo e dalla concentrazione delle specie ioniche. Nello svolgimento di questo lavoro sono stati analizzati i principali fenomeni di trasporto ed elettrostatici coinvolti nel processo di nanofiltrazione, in particolare si è focalizzata l’attenzione sugli aspetti relativi alla loro modellazione matematica. La prima parte della tesi è dedicata con la presentazione del problema generale del trasporto di soluti all’interno di membrane da nanofiltrazione con riferimento alle equazioni alla base del modello DSP&DE, che rappresenta una razionalizzazione dei modelli esistenti sviluppati a partire dal modello DSPM, nel quale sono stati integrarti i fenomeni di esclusione dielettrica, per quanto riguarda la separazione di elettroliti nella filtrazione di soluzioni acquose in processi di Nanofiltrazione. Il modello DSP&DE, una volta definita la tipologia di elettroliti presenti nella soluzione alimentata e la loro concentrazione, viene completamente definito da tre parametri aggiustabili, strettamente riconducibili alle proprietà della singola membrana: il raggio medio dei pori all’interno della matrice, lo spessore effettivo e la densità di carica di membrana; in più può essere considerato un ulteriore parametro aggiustabile del modello il valore che la costante dielettrica del solvente assume quando confinato in pori di ridotte dimensioni. L’impostazione generale del modello DSP&DE, prevede la presentazione dei fenomeni di trasporto all’interno della membrana, descritti attraverso l’equazione di Nerst-Planck, e lo studio della ripartizione a ridosso dell’interfaccia membrana/soluzione esterna, che tiene in conto di diversi contributi: l’impedimento sterico, la non idealità della soluzione, l’effetto Donnan e l’esclusione dielettrica. Il capitolo si chiude con la presentazione di una procedura consigliata per la determinazione dei parametri aggiustabili del modello di trasporto. Il lavoro prosegue con una serie di applicazioni del modello a dati sperimentali ottenuti dalla caratterizzazione di membrane organiche CSM NE70 nel caso di soluzioni contenenti elettroliti. In particolare il modello viene applicato quale strumento atto ad ottenere informazioni utili per lo studio dei fenomeni coinvolti nel meccanismo di formazione della carica; dall’elaborazione dei dati sperimentali di reiezione in funzione del flusso è possibile ottenere dei valori di carica di membrana, assunta quale parametro aggiustabile del modello. che permettono di analizzare con affidabilità gli andamenti qualitativi ottenuti per la carica volumetrica di membrana al variare della concentrazione di sale nella corrente in alimentazione, del tipo di elettrolita studiato e del pH della soluzione. La seconda parte della tesi relativa allo studio ed alla modellazione del meccanismo di formazione della carica. Il punto di partenza di questo studio è rappresentato dai valori di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione con il modello di trasporto, e tali valori verranno considerati quali valori “sperimentali” di riferimento con i quali confrontare i risultati ottenuti. Nella sezione di riferimento è contenuta la presentazione del modello teorico “adsorption-amphoteric” sviluppato al fine di descrivere ed interpretare i diversi comportamenti sperimentali ottenuti per la carica di membrana al variare delle condizioni operative. Nel modello la membrana è schematizzata come un insieme di siti attivi di due specie: il gruppo di siti idrofobici e quello de siti idrofilici, in grado di supportare le cariche derivanti da differenti meccanismi chimici e fisici. I principali fenomeni presi in considerazione nel determinare la carica volumetrica di membrana sono: i) la dissociazione acido/base dei siti idrofilici; ii) il site-binding dei contro-ioni sui siti idrofilici dissociati; iii) l’adsorbimento competitivo degli ioni in soluzione sui gruppi funzionali idrofobici. La struttura del modello è del tutto generale ed è in grado di mettere in evidenza quali sono i fenomeni rilevanti che intervengono nel determinare la carica di membrana; per questo motivo il modello permette di indagare il contributo di ciascun meccanismo considerato, in funzione delle condizioni operative. L’applicazione ai valori di carica disponibili per membrane Desal 5-DK nel caso di soluzioni contenenti singoli elettroliti, in particolare NaCl e CaCl2 permette di mettere in evidenza due aspetti fondamentali del modello: in primis la sua capacità di descrivere andamenti molto diversi tra loro per la carica di membrana facendo riferimento agli stessi tre semplici meccanismi, dall’altra parte permette di studiare l’effetto di ciascun meccanismo sull’andamento della carica totale di membrana e il suo peso relativo. Infine vengono verificate le previsioni ottenute con il modello dal suddetto studio attraverso il confronto con dati sperimentali di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione disponibili per il caso di membrane CSM NE70. Tale confronto ha messo in evidenza le buone capacità previsionali del modello soprattutto nel caso di elettroliti non simmetrici quali CaCl2 e Na2SO4. In particolare nel caso un cui lo ione divalente rappresenta il contro-ione rispetto alla carica propria di membrana, la carica di membrana è caratterizzata da un andamento unimodale (contraddistinto da un estremante) con la concentrazione di sale in alimentazione. Il lavoro viene concluso con l’estensione del modello ADS-AMF al caso di soluzioni multicomponenti: è presentata una regola di mescolamento che permette di ottenere la carica per le soluzioni elettrolitiche multicomponenti a partire dai valori disponibili per i singoli ioni componenti la miscela.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Descrizione, tema e obiettivi della ricerca La ricerca si propone lo studio delle possibili influenze che la teoria di Aldo Rossi ha avuto sulla pratica progettuale nella Penisola Iberica, intende quindi affrontare i caratteri fondamentali della teoria che sta alla base di un metodo progettuale ed in particolar modo porre l'attenzione alle nuove costruzioni quando queste si confrontano con le città storiche. Ha come oggetto principale lo studio dei documenti, saggi e scritti riguardanti il tema della costruzione all'interno delle città storiche. Dallo studio di testi selezionati di Aldo Rossi sulla città si vuole concentrare l'attenzione sull'influenza che tale teoria ha avuto nei progetti della Penisola Iberica, studiare come è stata recepita e trasmessa successivamente, attraverso gli scritti di autori spagnoli e come ha visto un suo concretizzarsi poi nei progetti di nuove costruzioni all'interno delle città storiche. Si intende restringere il campo su un periodo ed un luogo precisi, Spagna e Portogallo a partire dagli anni Settanta, tramite la lettura di un importante evento che ha ufficializzato il contatto dell'architetto italiano con la Penisola Iberica, quale il Seminario di Santiago de Compostela tenutosi nel 1976. Al Seminario parteciparono numerosi architetti che si confrontarono su di un progetto per la città di Santiago e furono invitati personaggi di fama internazionale a tenere lezioni introduttive sul tema di dibattito in merito al progetto e alla città storica. Il Seminario di Santiago si colloca in un periodo storico cruciale per la Penisola Iberica, nel 1974 cade il regime salazarista in Portogallo e nel 1975 cade il regime franchista in Spagna ed è quindi di rilevante importanza capire il legame tra l'architettura e la nuova situazione politica. Dallo studio degli interventi, dei progetti che furono prodotti durante il Seminario, della relazione tra questo evento ed il periodo storico in cui esso va contestualizzato, si intende giungere alla individuazione delle tracce della reale presenza di tale eredità. Presupposti metodologici. Percorso e strumenti di ricerca La ricerca può quindi essere articolata in distinte fasi corrispondenti per lo più ai capitoli in cui si articola la tesi: una prima fase con carattere prevalentemente storica, di ricerca del materiale per poter definire il contesto in cui si sviluppano poi le vicende oggetto della tesi; una seconda fase di impronta teorica, ossia di ricerca bibliografica del materiale e delle testimonianze che provvedono alla definizione della reale presenza di effetti scaturiti dai contatti tra Rossi e la Penisola Iberica, per andare a costruire una eredità ; una terza fase che entra nel merito della composizione attraverso lo studio e la verifica delle prime due parti, tramite l'analisi grafica applicata ad uno specifico esempio architettonico selezionato; una quarta fase dove il punto di vista viene ribaltato e si indaga l'influenza dei luoghi visitati e dei contatti intrattenuti con alcuni personaggi della Penisola Iberica sull'architettura di Rossi, ricercandone i riferimenti. La ricerca è stata condotta attraverso lo studio di alcuni eventi selezionati nel corso degli anni che si sono mostrati significativi per l'indagine, per la risonanza che hanno avuto sulla storia dell'architettura della Penisola. A questo scopo si sono utilizzati principalmente tre strumenti: lo studio dei documenti, le pubblicazioni e le riviste prodotte in Spagna, gli scritti di Aldo Rossi in merito, e la testimonianza diretta attraverso interviste di personaggi chiave. La ricerca ha prodotto un testo suddiviso per capitoli che rispetta l'organizzazione in fasi di lavoro. A seguito di determinate condizioni storiche e politiche, studiate nella ricerca a supporto della tesi espressa, nella Penisola Iberica si è verificato il diffondersi della necessità e del desiderio di guardare e prendere a riferimento l'architettura europea e in particolar modo quella italiana. Il periodo sul quale viene focalizzata l'attenzione ha inizio negli anni Sessanta, gli ultimi prima della caduta delle dittature, scenario dei primi viaggi di Aldo Rossi nella Penisola Iberica. Questi primi contatti pongono le basi per intense e significative relazioni future. Attraverso l'approfondimento e la studio dei materiali relativi all'oggetto della tesi, si è cercato di mettere in luce il contesto culturale, l'attenzione e l'interesse per l'apertura di un dibattito intorno all'architettura, non solo a livello nazionale, ma europeo. Ciò ha evidenziato il desiderio di innescare un meccanismo di discussione e scambio di idee, facendo leva sull'importanza dello sviluppo e ricerca di una base teorica comune che rende coerente i lavori prodotti nel panorama architettonico iberico, seppur ottenendo risultati che si differenziano gli uni dagli altri. E' emerso un forte interesse per il discorso teorico sull'architettura, trasmissibile e comunicabile, che diventa punto di partenza per un metodo progettuale. Ciò ha reso palese una condivisione di intenti e l'assunzione della teoria di Aldo Rossi, acquisita, diffusa e discussa, attraverso la pubblicazione dei suoi saggi, la conoscenza diretta con l'architetto e la sua architettura, conferenze, seminari, come base teorica su cui fondare il proprio sapere architettonico ed il processo metodologico progettuale da applicare di volta in volta negli interventi concreti. Si è giunti così alla definizione di determinati eventi che hanno permesso di entrare nel profondo della questione e di sondare la relazione tra Rossi e la Penisola Iberica, il materiale fornito dallo studio di tali episodi, quali il I SIAC, la diffusione della rivista "2C. Construccion de la Ciudad", la Coleccion Arquitectura y Critica di Gustavo Gili, hanno poi dato impulso per il reperimento di una rete di ulteriori riferimenti. E' stato possibile quindi individuare un gruppo di architetti spagnoli, che si identificano come allievi del maestro Rossi, impegnato per altro in quegli anni nella formazione di una Scuola e di un insegnamento, che non viene recepito tanto nelle forme, piuttosto nei contenuti. I punti su cui si fondano le connessioni tra l'analisi urbana e il progetto architettonico si centrano attorno due temi di base che riprendono la teoria esposta da Rossi nel saggio L'architettura della città : - relazione tra l'area-studio e la città nella sua globalità, - relazione tra la tipologia edificatoria e gli aspetti morfologici. La ricerca presentata ha visto nelle sue successive fasi di approfondimento, come si è detto, lo sviluppo parallelo di più tematiche. Nell'affrontare ciascuna fase è stato necessario, di volta in volta, operare una verifica delle tappe percorse precedentemente, per mantenere costante il filo del discorso col lavoro svolto e ritrovare, durante lo svolgimento stesso della ricerca, gli elementi di connessione tra i diversi episodi analizzati. Tale operazione ha messo in luce talvolta nodi della ricerca rimasti in sospeso che richiedevano un ulteriore approfondimento o talvolta solo una rivisitazione per renderne possibile un più proficuo collegamento con la rete di informazioni accumulate. La ricerca ha percorso strade diverse che corrono parallele, per quanto riguarda il periodo preso in analisi: - i testi sulla storia dell'architettura spagnola e la situazione contestuale agli anni Settanta - il materiale riguardante il I SIAC - le interviste ai partecipanti al I SIAC - le traduzioni di Gustavo Gili nella Coleccion Arquitectura y Critica - la rivista "2C. Construccion de la Ciudad" Esse hanno portato alla luce una notevole quantità di tematiche, attraverso le quali, queste strade vengono ad intrecciarsi e a coincidere, verificando l'una la veridicità dell'altra e rafforzandone il valore delle affermazioni. Esposizione sintetica dei principali contenuti esposti dalla ricerca Andiamo ora a vedere brevemente i contenuti dei singoli capitoli. Nel primo capitolo Anni Settanta. Periodo di transizione per la Penisola Iberica si è cercato di dare un contesto storico agli eventi studiati successivamente, andando ad evidenziare gli elementi chiave che permettono di rintracciare la presenza della predisposizione ad un cambiamento culturale. La fase di passaggio da una condizione di chiusura rispetto alle contaminazioni provenienti dall'esterno, che caratterizza Spagna e Portogallo negli anni Sessanta, lascia il posto ad un graduale abbandono della situazione di isolamento venutasi a creare intorno al Paese a causa del regime dittatoriale, fino a giungere all'apertura e all'interesse nei confronti degli apporti culturali esterni. E' in questo contesto che si gettano le basi per la realizzazione del I Seminario Internazionale di Architettura Contemporanea a Santiago de Compostela, del 1976, diretto da Aldo Rossi e organizzato da César Portela e Salvador Tarragó, di cui tratta il capitolo secondo. Questo è uno degli eventi rintracciati nella storia delle relazioni tra Rossi e la Penisola Iberica, attraverso il quale è stato possibile constatare la presenza di uno scambio culturale e l'importazione in Spagna delle teorie di Aldo Rossi. Organizzato all'indomani della caduta del franchismo, ne conserva una reminescenza formale. Il capitolo è organizzato in tre parti, la prima si occupa della ricostruzione dei momenti salienti del Seminario Proyecto y ciudad historica, dagli interventi di architetti di fama internazionale, quali lo stesso Aldo Rossi, Carlo Aymonino, James Stirling, Oswald Mathias Ungers e molti altri, che si confrontano sul tema delle città storiche, alle giornate seminariali dedicate all’elaborazione di un progetto per cinque aree individuate all’interno di Santiago de Compostela e quindi dell’applicazione alla pratica progettuale dell’inscindibile base teorica esposta. Segue la seconda parte dello stesso capitolo riguardante La selezione di interviste ai partecipanti al Seminario. Esso contiene la raccolta dei colloqui avuti con alcuni dei personaggi che presero parte al Seminario e attraverso le loro parole si è cercato di approfondire la materia, in particolar modo andando ad evidenziare l’ambiente culturale in cui nacque l’idea del Seminario, il ruolo avuto nella diffusione della teoria di Aldo Rossi in Spagna e la ripercussione che ebbe nella pratica costruttiva. Le diverse interviste, seppur rivolte a persone che oggi vivono in contesti distanti e che in seguito a questa esperienza collettiva hanno intrapreso strade diverse, hanno fatto emergere aspetti comuni, tale unanimità ha dato ancor più importanza al valore di testimonianza offerta. L’elemento che risulta più evidente è il lascito teorico, di molto prevalente rispetto a quello progettuale che si è andato mescolando di volta in volta con la tradizione e l’esperienza dei cosiddetti allievi di Aldo Rossi. Negli stessi anni comincia a farsi strada l’importanza del confronto e del dibattito circa i temi architettonici e nel capitolo La fortuna critica della teoria di Aldo Rossi nella Penisola Iberica è stato affrontato proprio questo rinnovato interesse per la teoria che in quegli anni si stava diffondendo. Si è portato avanti lo studio delle pubblicazioni di Gustavo Gili nella Coleccion Arquitectura y Critica che, a partire dalla fine degli anni Sessanta, pubblica e traduce in lingua spagnola i più importanti saggi di architettura, tra i quali La arquitectura de la ciudad di Aldo Rossi, nel 1971, e Comlejidad y contradiccion en arquitectura di Robert Venturi nel 1972. Entrambi fondamentali per il modo di affrontare determinate tematiche di cui sempre più in quegli anni si stava interessando la cultura architettonica iberica, diventando così ¬ testi di riferimento anche nelle scuole. Le tracce dell’influenza di Rossi sulla Penisola Iberica si sono poi ricercate nella rivista “2C. Construccion de la Ciudad” individuata come strumento di espressione di una teoria condivisa. Con la nascita nel 1972 a Barcellona di questa rivista viene portato avanti l’impegno di promuovere la Tendenza, facendo riferimento all’opera e alle idee di Rossi ed altri architetti europei, mirando inoltre al recupero di un ruolo privilegiato dell’architettura catalana. A questo proposito sono emersi due fondamentali aspetti che hanno legittimato l’indagine e lo studio di questa fonte: - la diffusione della cultura architettonica, il controllo ideologico e di informazione operato dal lavoro compiuto dalla rivista; - la documentazione circa i criteri di scelta della redazione a proposito del materiale pubblicato. E’ infatti attraverso le pubblicazioni di “2C. Construccion de la Ciudad” che è stato possibile il ritrovamento delle notizie sulla mostra Arquitectura y razionalismo. Aldo Rossi + 21 arquitectos españoles, che accomuna in un’unica esposizione le opere del maestro e di ventuno giovani allievi che hanno recepito e condiviso la teoria espressa ne “L’architettura della città”. Tale mostra viene poi riproposta nella Sezione Internazionale di Architettura della XV Triennale di Milano, la quale dedica un Padiglione col titolo Barcelona, tres epocas tres propuestas. Dalla disamina dei progetti presentati è emerso un interessante caso di confronto tra le Viviendas para gitanos di César Portela e la Casa Bay di Borgo Ticino di Aldo Rossi, di cui si è occupato l’ultimo paragrafo di questo capitolo. Nel corso degli studi è poi emerso un interessante risvolto della ricerca che, capovolgendone l’oggetto stesso, ne ha approfondito gli aspetti cercando di scavare più in profondità nell’analisi della reciproca influenza tra la cultura iberica e Aldo Rossi, questa parte, sviscerata nell’ultimo capitolo, La Penisola Iberica nel “magazzino della memoria” di Aldo Rossi, ha preso il posto di quello che inizialmente doveva presentarsi come il risvolto progettuale della tesi. Era previsto infatti, al termine dello studio dell’influenza di Aldo Rossi sulla Penisola Iberica, un capitolo che concentrava l’attenzione sulla produzione progettuale. A seguito dell’emergere di un’influenza di carattere prettamente teorica, che ha sicuramente modificato la pratica dal punto di vista delle scelte architettoniche, senza però rendersi esplicita dal punto di vista formale, si è preferito, anche per la difficoltà di individuare un solo esempio rappresentativo di quanto espresso, sostituire quest’ultima parte con lo studio dell’altra faccia della medaglia, ossia l’importanza che a sua volta ha avuto la cultura iberica nella formazione della collezione dei riferimenti di Aldo Rossi. L’articolarsi della tesi in fasi distinte, strettamente connesse tra loro da un filo conduttore, ha reso necessari successivi aggiustamenti nel percorso intrapreso, dettati dall’emergere durante la ricerca di nuovi elementi di indagine. Si è pertanto resa esplicita la ricercata eredità di Aldo Rossi, configurandosi però prevalentemente come un’influenza teorica che ha preso le sfumature del contesto e dell’esperienza personale di chi se ne è fatto ricevente, diventandone così un continuatore attraverso il proprio percorso autonomo o collettivo intrapreso in seguito. Come suggerisce José Charters Monteiro, l’eredità di Rossi può essere letta attraverso tre aspetti su cui si basa la sua lezione: la biografia, la teoria dell’architettura, l’opera. In particolar modo per quanto riguarda la Penisola Iberica si può parlare dell’individuazione di un insegnamento riferito alla seconda categoria, i suoi libri di testo, le sue partecipazioni, le traduzioni. Questo è un lascito che rende possibile la continuazione di un dibattito in merito ai temi della teoria dell’architettura, della sue finalità e delle concrete applicazioni nelle opere, che ha permesso il verificarsi di una apertura mentale che mette in relazione l’architettura con altre discipline umanistiche e scientifiche, dalla politica, alla sociologia, comprendendo l’arte, le città la morfologia, la topografia, mediate e messe in relazione proprio attraverso l’architettura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi ci focalizzeremo sul connubio TV ed internet che rivoluzionerà l’erogazione dei servizi verso i telespettatori e di conseguenza il marketing pubblicitario in questo contesto. Partiremo dalla storia della televisione in Italia e dei dispositivi TV per poi analizzare i primi fenomeni di utilizzo televisivo del canale web e la conseguente nascita dei primi social media e servizi di video on demand. La seconda parte di questa tesi farà una larga panoramica sul marketing televisivo ed il web marketing, fino ad arrivare al punto di massima prossimità tra i due canali, ovvero l’advertising correlato ai contenuti video presenti sul web. Nella terza ed ultima parte analizzeremo le prime piattaforme di WebTV e servizi di internet television, per poi focalizzarci sui probabili risvolti e prospettive future sia a livello di fruizione dei contenuti che pubblicitario. Questo fenomeno avrà una netta influenza nel Marketing considerando che dal 1984 la TV è il mezzo che raccoglie la maggior parte degli investimenti pubblicitari ed il web è il media in maggiore ascesa a livello di penetrazione e popolarità negli ultimi anni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si tratta di uno studio osservazionale analitico di coorte prospettico volto a rilevare disfunzioni neuropsicologiche nei pazienti affetti da epilessia frontale notturna, attraverso una batteria di test che esplora i seguenti domini cognitivi: intelligenza generale, memoria, linguaggio, funzioni esecutive, attenzione, vigilanza, tempi di reazione, percezione della qualità della vita ed eventuale presenza di sintomi psichiatrici. Lo studio ha un follow up medio di 20 anni e riporta, per la prima volta in letteratura, l’evoluzione clinica dei soggetti che hanno avuto un esordio dell’epilessia in età evolutiva. Fino ad ora, l’epilessia frontale notturna è stata associata a disfunzioni cognitive nei soli casi di famiglie affette e nelle quali è stato possibile rilevare il difetto genetico. Questo studio ha rilevato la prevalenza di disturbi cognitivi e psichici in un campione di 24 soggetti affetti, mediante la somministrazione di una batteria di test specifica. I risultati sono stati analizzati con il programma statistico SPSS. Tutti i soggetti presentano abilità cognitive inferiori alla media in uno o più test ma il quoziente intellettivo risulta normale nei tre quarti del campione. Il ritardo mentale è più frequente e più grave nei soggetti idiopatici rispetto a quelli con alterazioni morfologiche frontali rilevate alla risonanza magnetica. Sono risultati più frequenti i disturbi della memoria, soprattutto quella a lungo termine e del linguaggio rispetto a quelli di tipo disesecutivo. Tutti i soggetti, che non hanno ottenuto un controllo delle crisi, manifestano una percezione della qualità della vita inferiore alla media. E’ stata valutata l’influenza delle variabili cliniche (età di esordio dell’epilessia, frequenza e semeiologia delle crisi, durata della malattia e terapia antiepilettica), le anomalie elettroencefalografiche e le anomalie rilevate alla risonanza magnetica. Le variabili che sono in rapporto con un maggiore numero di disfunzioni neuropsicologiche sono: l’elevata frequenza di crisi all’esordio, l’associazione con crisi in veglia, la presenza di crisi parziali secondariamente generalizzate e l’assunzione di una politerapia. I disturbi psichici prevalgono nei soggetti con anomalie elettroencefalografiche frontali sinistre. I dati neuropsicologici suggeriscono una disfunzione cognitiva prevalentemente fronto-temporale e, assieme ai dati clinici ed elettroencefalografici, sembrano confermare l’origine mesiale e orbitale frontale delle anomalie epilettiche nell’epilessia frontale notturna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa dissertazione esamina le sfide e i limiti che gli algoritmi di analisi di grafi incontrano in architetture distribuite costituite da personal computer. In particolare, analizza il comportamento dell'algoritmo del PageRank così come implementato in una popolare libreria C++ di analisi di grafi distribuiti, la Parallel Boost Graph Library (Parallel BGL). I risultati qui presentati mostrano che il modello di programmazione parallela Bulk Synchronous Parallel è inadatto all'implementazione efficiente del PageRank su cluster costituiti da personal computer. L'implementazione analizzata ha infatti evidenziato una scalabilità negativa, il tempo di esecuzione dell'algoritmo aumenta linearmente in funzione del numero di processori. Questi risultati sono stati ottenuti lanciando l'algoritmo del PageRank della Parallel BGL su un cluster di 43 PC dual-core con 2GB di RAM l'uno, usando diversi grafi scelti in modo da facilitare l'identificazione delle variabili che influenzano la scalabilità. Grafi rappresentanti modelli diversi hanno dato risultati differenti, mostrando che c'è una relazione tra il coefficiente di clustering e l'inclinazione della retta che rappresenta il tempo in funzione del numero di processori. Ad esempio, i grafi Erdős–Rényi, aventi un basso coefficiente di clustering, hanno rappresentato il caso peggiore nei test del PageRank, mentre i grafi Small-World, aventi un alto coefficiente di clustering, hanno rappresentato il caso migliore. Anche le dimensioni del grafo hanno mostrato un'influenza sul tempo di esecuzione particolarmente interessante. Infatti, si è mostrato che la relazione tra il numero di nodi e il numero di archi determina il tempo totale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro si è occupato della modellazione del degrado ambientale su strutture in muratura. Si propone un modello focalizzando l’attenzione sulla cristallizzazione dei sali con lo scopo di individuare sotto quali condizioni il sale si deposita, determinando la quantità e la posizione dove cristallizza e di come questo fenomeno influenza lo stato tenso-deformativo della struttura stessa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro presentato si propone di fornire un contributo all'implementazione di indagini finalizzate a misurare l'evoluzione delle intenzioni d'acquisto del consumatore italiano nei confronti degli OGM, data anche l'impossibilità  al momento di avere indicazioni e dati sul comportamento (vista la quasi totale assenza dei prodotti OGM nella distribuzione, se si eccettuano i prodotti d'allevamento di animali alimentati con OGM per cui non è previsto nessun obbligo di etichettatura). Le coltivazioni transgeniche (Organismi Geneticamente Modificati) si stanno diffondendo abbastanza rapidamente nel contesto mondiale, dal 1996, primo anno in cui sono uscite dalla fase sperimentale, ad oggi. Nel 2008 la superficie globale delle colture biotech è stata di 125 milioni di ettari, circa il 9% in più rispetto ai 114 milioni del 2007, mentre il numero dei Paesi che hanno adottato varietà  GM è giunto a 25. Di questi sono soprattutto Usa, Canada, Argentina, Brasile, Cina e India a trainare la crescita; le colture più diffuse sono soia, mais, cotone e colza, prodotti destinati principalmente al segmento feed e al segmento no-food e solo in minima parte al segmento food (cioè all'alimentazione diretta umana). Molte più resistenze ha incontrato tale sviluppo nei Paesi dell'Unione europea. A tutt'oggi le coltivazioni GM hanno raggiunto estensioni significative solamente in Spagna, con alcune decine di migliaia di ettari di mais GM. Mais che peraltro è l'unica produzione per cui è stata autorizzata una varietà  GM alla coltivazione. Si intuisce in sostanza come in Europa si sia assunto un atteggiamento molto più prudente verso l'utilizzo su larga scala di tale innovazione scientifica, rispetto a quanto accaduto nei grandi Paesi citati in precedenza. Una prudenza dettata dal serrato dibattito, tuttora in corso, tra possibilisti e contrari, con contrapposizioni anche radicali, al limite dell'ideologia. D'altro canto, le indagini di Eurobarometro hanno messo in luce un miglioramento negli ultimi anni nella percezione dei cittadini europei verso le biotecnologie: dopo aver raggiunto un livello minimo di fiducia nel 1999, si è manifestata una lenta risalita verso i livelli di inizio anni '90, con percentuali di "fiduciosi" intorno al 55-60% sul totale della popolazione. Tuttavia, sebbene sulle biotecnologie in genere (l'Eurobarometro individua quattro filoni: alimenti contenenti OGM, terapie geniche, nanotecnologie e farmaci contenenti OGM), il giudizio sia abbastanza positivo, sugli alimenti permane un certo scetticismo legato soprattutto a considerazioni di inutilità  della tecnologia, di rischio percepito e di accettabilità morale: per citare il caso italiano, che, contrariamente a quello che si potrebbe pensare, è tra i più elevati nel contesto europeo, solamente un cittadino su tre valuta positivamente gli alimenti contenenti OGM. Se si analizza, inoltre, il sentiment del settore agricolo, nel quale il tema riveste anche un'importanza di natura economico-produttiva, in quanto incidente sui comportamenti e sulla strategie aziendali, sembra emergere un'apertura significativamente più elevata, se non una vera e propria frattura rispetto all'opinione pubblica. Infatti, circa due maiscoltori lombardi su tre (Demoskopea, 2008), cioè la tipologia di agricoltori che potrebbe beneficiare di tale innovazione, coltiverebbero mais GM se la normativa lo consentisse. Ebbene, in tale contesto diventa d'estremo interesse, sebbene di non facile praticabilità , lo studio e l'implementazione di modelli volti a monitorare le componenti che concorrono a formare l'intenzione e, in ultima analisi, il comportamento, dei consumatori verso gli OGM. Un esercizio da attuare per lo più tramite una serie di misurazioni indirette che devono fermarsi necessariamente all'intenzione nel caso italiano, mentre in altri Paesi che hanno avuto legislazioni più favorevoli all'introduzione degli OGM stessi nella produzione food può perseguire approcci d'analisi field, focalizzati non solo sull'intenzione, ma anche sul legame tra intenzione ed effettivo comportamento. Esiste una vasta letteratura che studia l'intenzione del consumatore verso l'acquisto di determinati beni. Uno degli approcci teorici che negli ultimi anni ha avuto più seguito è stato quello della Teoria del Comportamento Pianificato (Ajzen, 1991). Tale teoria prevede che l'atteggiamento (cioè l'insieme delle convinzioni, credenze, opinioni del soggetto), la norma soggettiva (cioè l'influenza dell'opinione delle persone importanti per l'individuo) e il controllo comportamentale percepito (ovvero la capacità , auto-percepita dal soggetto, di riuscire a compiere un determinato comportamento, in presenza di un'intenzione di ugual segno) siano variabili sufficienti a spiegare l'intenzione del consumatore. Tuttavia, vari ricercatori hanno e stanno cercando di verificare la correlazione di altre variabili: per esempio la norma morale, l'esperienza, l'attitudine al rischio, le caratteristiche socio-demografiche, la cosiddetta self-identity, la conoscenza razionale, la fiducia nelle fonti d'informazione e via discorrendo. In tale lavoro si è cercato, quindi, di esplorare, in un'indagine "pilota" quali-quantitativa su un campione ragionato e non probabilistico, l'influenza sull'intenzione d'acquisto di prodotti alimentari contenenti OGM delle variabili tipiche della Teoria del Comportamento Pianificato e di alcune altre variabili, che, nel caso degli OGM, appaiono particolarmente rilevanti, cioè conoscenza, fiducia nelle fonti d'informazione ed elementi socio-demografici. Tra i principali risultati da porre come indicazioni di lavoro per successive analisi su campioni rappresentativi sono emersi: - La conoscenza, soprattutto se tecnica, sembra un fattore, relativamente al campione ragionato analizzato, che conduce ad una maggiore accettazione degli OGM; le stesse statistiche descrittive mettono in luce una netta differenza in termini di intenzione d'acquisto dei prodotti contenenti OGM da parte del sub-campione più preparato sull'argomento; - L'esplorazione della fiducia nelle fonti d'informazione è sicuramente da approfondire ulteriormente. Dall'indagine effettuata risulta come l'unica fonte che influenza con le sue informazioni la decisione d'acquisto sugli OGM è la filiera agroalimentare. Dato che tali attori si caratterizzano per lo più con indicazioni contrarie all'introduzione degli OGM nei loro processi produttivi, è chiaro che se il consumatore dichiara di avere fiducia in loro, sarà  anche portato a non acquistare gli OGM; - Per quanto riguarda le variabili della Teoria del Comportamento Pianificato, l'atteggiamento mette in luce una netta preponderanza nella spiegazione dell'intenzione rispetto alla norma soggettiva e al controllo comportamentale percepito. Al contrario, queste ultime appaiono variabili deboli, forse perchè a tutt'oggi la possibilità  concreta di acquistare OGM è praticamente ridotta a zero ; - Tra le variabili socio-demografiche, l'influenza positiva del titolo di studio sulla decisione d'acquisto sembra confermare almeno in parte quanto emerso rispetto alla variabile "conoscenza"; - Infine, il fatto che il livello di reddito non influisca sull'intenzione d'acquisto appare abbastanza scontato, se si pensa, ancora una volta, come a tutt'oggi gli OGM non siano presenti sugli scaffali. Il consumatore non ha al momento nessuna idea sul loro prezzo. Decisamente interessante sarà  indagare l'incidenza di tale variabile quando il "fattore OGM" sarà  prezzato, presumibilmente al ribasso rispetto ai prodotti non OGM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca svolta ha individuato fra i suoi elementi promotori l’orientamento determinato da parte della comunità europea di dare vita e sostegno ad ambiti territoriali intermedi sub nazionali di tipo regionale all’interno dei quali i sistemi di città potessero raggiungere le massime prestazioni tecnologiche per cogliere gli effetti positivi delle innovazioni. L’orientamento europeo si è confrontato con una realtà storica e geografica molto variata in quanto accanto a stati membri, nei quali le gerarchie fra città sono storicamente radicate e funzionalmente differenziate secondo un ordine che vede la città capitale dominante su città subalterne nelle quali la cultura di dominio del territorio non è né continua né gerarchizzata sussistono invece territori nazionali compositi con una città capitale di riconosciuto potere ma con città di minor dimensione che da secoli esprimono una radicata incisività nella organizzazione del territorio di appartenenza. Alla prima tipologia di stati appartengono ad esempio i Paesi del Nord Europa e l’Inghilterra, esprimendo nella Francia una situazione emblematica, alla seconda tipologia appartengono invece i Paesi dell’aera mediterranea, Italia in primis, con la grande eccezione della Germania. Applicando gli intendimenti comunitari alla realtà locale nazionale, questa tesi ha avviato un approfondimento di tipo metodologico e procedurale sulla possibile organizzazione a sistema di una regione fortemente policentrica nel suo sviluppo e “artificiosamente” rinata ad unità, dopo le vicende del XIX secolo: l’Emilia-Romagna. Anche nelle regioni che si presentano come storicamente organizzate sulla pluralità di centri emergenti, il rapporto col territorio è mediato da centri urbani minori che governano il tessuto cellulare delle aggregazioni di servizi di chiara origine agraria. Questo stato di cose comporta a livello politico -istituzionale una dialettica vivace fra territori voluti dalle istituzioni e territori legittimati dal consolidamento delle tradizioni confermato dall’uso attuale. La crescente domanda di capacità di governo dello sviluppo formulata dagli operatori economici locali e sostenuta dalle istituzioni europee si confronta con la scarsa capacità degli enti territoriali attuali: Regioni, Comuni e Province di raggiungere un livello di efficienza sufficiente ad organizzare sistemi di servizi adeguati a sostegno della crescita economica. Nel primo capitolo, dopo un breve approfondimento sulle “figure retoriche comunitarie”, quali il policentrismo, la governance, la coesione territoriale, utilizzate per descrivere questi fenomeni in atto, si analizzano gli strumenti programmatici europei e lo S.S.S.E,. in primis, che recita “Per garantire uno sviluppo regionale equilibrato nella piena integrazione anche nell’economia mondiale, va perseguito un modello di sviluppo policentrico, al fine di impedire un’ulteriore eccessiva concentrazione della forza economica e della popolazione nei territori centrali dell’UE. Solo sviluppando ulteriormente la struttura, relativamente decentrata, degli insediamenti è possibile sfruttare il potenziale economico di tutte le regioni europee.” La tesi si inserisce nella fase storica in cui si tenta di definire quali siano i nuovi territori funzionali e su quali criteri si basa la loro riconoscibilità; nel tentativo di adeguare ad essi, riformandoli, i territori istituzionali. Ai territori funzionali occorre riportare la futura fiscalità, ed è la scala adeguata per l'impostazione della maggior parte delle politiche, tutti aspetti che richiederanno anche la necessità di avere una traduzione in termini di rappresentanza/sanzionabilità politica da parte dei cittadini. Il nuovo governo auspicato dalla Comunità Europea prevede una gestione attraverso Sistemi Locali Territoriali (S.Lo.t.) definiti dalla combinazione di milieu locale e reti di attori che si comportano come un attore collettivo. Infatti il secondo capitolo parte con l’indagare il concetto di “regione funzionale”, definito sulla base della presenza di un nucleo e di una corrispondente area di influenza; che interagisce con altre realtà territoriali in base a relazioni di tipo funzionale, per poi arrivare alla definizione di un Sistema Locale territoriale, modello evoluto di regione funzionale che può essere pensato come una rete locale di soggetti i quali, in funzione degli specifici rapporti che intrattengono fra loro e con le specificità territoriali del milieu locale in cui operano e agiscono, si comportano come un soggetto collettivo. Identificare un sistema territoriale, è una condizione necessaria, ma non sufficiente, per definire qualsiasi forma di pianificazione o governance territoriale, perchè si deve soprattutto tener conto dei processi di integrazione funzionale e di networking che si vengono a generare tra i diversi sistemi urbani e che sono specchio di come il territorio viene realmente fruito., perciò solo un approccio metodologico capace di sfumare e di sovrapporre le diverse perimetrazioni territoriali riesce a definire delle aree sulle quali definire un’azione di governo del territorio. Sin dall’inizio del 2000 il Servizio Sviluppo Territoriale dell’OCSE ha condotto un’indagine per capire come i diversi paesi identificavano empiricamente le regioni funzionali. La stragrande maggioranza dei paesi adotta una definizione di regione funzionale basata sul pendolarismo. I confini delle regioni funzionali sono stati definiti infatti sulla base di “contorni” determinati dai mercati locali del lavoro, a loro volta identificati sulla base di indicatori relativi alla mobilità del lavoro. In Italia, la definizione di area urbana funzionale viene a coincidere di fatto con quella di Sistema Locale del Lavoro (SLL). Il fatto di scegliere dati statistici legati a caratteristiche demografiche è un elemento fondamentale che determina l’ubicazione di alcuni servizi ed attrezzature e una mappa per gli investimenti nel settore sia pubblico che privato. Nell’ambito dei programmi europei aventi come obiettivo lo sviluppo sostenibile ed equilibrato del territorio fatto di aree funzionali in relazione fra loro, uno degli studi di maggior rilievo è stato condotto da ESPON (European Spatial Planning Observation Network) e riguarda l’adeguamento delle politiche alle caratteristiche dei territori d’Europa, creando un sistema permanente di monitoraggio del territorio europeo. Sulla base di tali indicatori vengono costruiti i ranking dei diversi FUA e quelli che presentano punteggi (medi) elevati vengono classificati come MEGA. In questo senso, i MEGA sono FUA/SLL particolarmente performanti. In Italia ve ne sono complessivamente sei, di cui uno nella regione Emilia-Romagna (Bologna). Le FUA sono spazialmente interconnesse ed è possibile sovrapporre le loro aree di influenza. Tuttavia, occorre considerare il fatto che la prossimità spaziale è solo uno degli aspetti di interazione tra le città, l’altro aspetto importante è quello delle reti. Per capire quanto siano policentrici o monocentrici i paesi europei, il Progetto Espon ha esaminato per ogni FUA tre differenti parametri: la grandezza, la posizione ed i collegamenti fra i centri. La fase di analisi della tesi ricostruisce l’evoluzione storica degli strumenti della pianificazione regionale analizzandone gli aspetti organizzativi del livello intermedio, evidenziando motivazioni e criteri adottati nella suddivisione del territorio emilianoromagnolo (i comprensori, i distretti industriali, i sistemi locali del lavoro…). La fase comprensoriale e quella dei distretti, anche se per certi versi effimere, hanno avuto comunque il merito di confermare l’esigenza di avere un forte organismo intermedio di programmazione e pianificazione. Nel 2007 la Regione Emilia Romagna, nell’interpretare le proprie articolazioni territoriali interne, ha adeguato le proprie tecniche analitiche interpretative alle direttive contenute nel Progetto E.S.P.O.N. del 2001, ciò ha permesso di individuare sei S.Lo.T ( Sistemi Territoriali ad alta polarizzazione urbana; Sistemi Urbani Metropolitani; Sistemi Città – Territorio; Sistemi a media polarizzazione urbana; Sistemi a bassa polarizzazione urbana; Reti di centri urbani di piccole dimensioni). Altra linea di lavoro della tesi di dottorato ha riguardato la controriprova empirica degli effettivi confini degli S.Lo.T del PTR 2007 . Dal punto di vista metodologico si è utilizzato lo strumento delle Cluster Analisys per impiegare il singolo comune come polo di partenza dei movimenti per la mia analisi, eliminare inevitabili approssimazioni introdotte dalle perimetrazioni legate agli SLL e soprattutto cogliere al meglio le sfumature dei confini amministrativi dei diversi comuni e province spesso sovrapposti fra loro. La novità è costituita dal fatto che fino al 2001 la regione aveva definito sullo stesso territorio una pluralità di ambiti intermedi non univocamente circoscritti per tutte le funzioni ma definiti secondo un criterio analitico matematico dipendente dall’attività settoriale dominante. In contemporanea col processo di rinnovamento della politica locale in atto nei principali Paesi dell’Europa Comunitaria si va delineando una significativa evoluzione per adeguare le istituzioni pubbliche che in Italia comporta l’attuazione del Titolo V della Costituzione. In tale titolo si disegna un nuovo assetto dei vari livelli Istituzionali, assumendo come criteri di riferimento la semplificazione dell’assetto amministrativo e la razionalizzazione della spesa pubblica complessiva. In questa prospettiva la dimensione provinciale parrebbe essere quella tecnicamente più idonea per il minimo livello di pianificazione territoriale decentrata ma nel contempo la provincia come ente amministrativo intermedio palesa forti carenze motivazionali in quanto l’ente storico di riferimento della pianificazione è il comune e l’ente di gestione delegato dallo stato è la regione: in generale troppo piccolo il comune per fare una programmazione di sviluppo, troppo grande la regione per cogliere gli impulsi alla crescita dei territori e delle realtà locali. Questa considerazione poi deve trovare elementi di compatibilità con la piccola dimensione territoriale delle regioni italiane se confrontate con le regioni europee ed i Laender tedeschi. L'individuazione di criteri oggettivi (funzionali e non formali) per l'individuazione/delimitazione di territori funzionali e lo scambio di prestazioni tra di essi sono la condizione necessaria per superare l'attuale natura opzionale dei processi di cooperazione interistituzionale (tra comuni, ad esempio appartenenti allo stesso territorio funzionale). A questo riguardo molto utile è l'esperienza delle associazioni, ma anche delle unioni di comuni. Le esigenze della pianificazione nel riordino delle istituzioni politico territoriali decentrate, costituiscono il punto finale della ricerca svolta, che vede confermato il livello intermedio come ottimale per la pianificazione. Tale livello è da intendere come dimensione geografica di riferimento e non come ambito di decisioni amministrative, di governance e potrebbe essere validamente gestito attraverso un’agenzia privato-pubblica dello sviluppo, alla quale affidare la formulazione del piano e la sua gestione. E perché ciò avvenga è necessario che il piano regionale formulato da organi politici autonomi, coordinati dall’attività dello stato abbia caratteri definiti e fattibilità economico concreta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro ha come obiettivo la definizione e la misura della complessità tecnologica, al fine di costruire strumenti a supporto di tutti gli operatori che si occupano dello sviluppo e della fabbricazione di un prodotto industriale, quali progettisti di prodotto e responsabili di produzione. La ricerca è stata sviluppata attraverso le fasi di seguito descritte. Analisi dello stato dell’arte su definizioni e misure della complessità in ambito industriale attraverso l’individuazione e studio di oltre un centinaio di pubblicazioni al riguardo. Classificazione dei metodi proposti in letteratura per la misura della complessità in cinque categorie e analisi critica dei punti di forza e di debolezza dei differenti metodi, ai fini di orientare la elaborazione di un nuovo metodo. Sono stati inoltre analizzati i principali metodi di Intelligenza Artificiali quali potenziali strumenti di calcolo della complessità. Indagine su tematiche correlate alla complessità quali indicatori, trasferimento tecnologico e innovazione. La complessità viene misurata in termini di un indice che appartiene alla categoria degli indicatori, utilizzati in molti ambiti industriali, in particolare quello della misura delle prestazioni di produzione. In particolare si è approfondito significato e utilizzo dell’OEE (Overall Equipment Effectiveness), particolarmente diffuso nelle piccole medie imprese emilianoromagnole e in generale dalle aziende che utilizzano un sistema produttivo di tipo job-shop. È stato implementato un efficace sistema di calcolo dell’OEE presso una azienda meccanica locale. L’indice di complessità trova una delle sue più interessanti applicazioni nelle operazioni di trasferimento tecnologico. Introdurre un’innovazione significa in genere aumentare la complessità del sistema, quindi i due concetti sono connessi. Sono stati esaminati diversi casi aziendali di trasferimento di tecnologia e di misura delle prestazioni produttive, evidenziando legami e influenza della complessità tecnologica sulle scelte delle imprese. Elaborazione di un nuovo metodo di calcolo di un indice di complessità tecnologica di prodotto, a partire dalla metodologia ibrida basata su modello entropico proposta dai Prof. ElMaraghy e Urbanic nel 2003. L’attenzione è stata focalizzata sulla sostituzione nella formula originale a valori determinati tramite interviste agli operatori e pertanto soggettivi, valori oggettivi. Verifica sperimentale della validità della nuova metodologia attraverso l’applicazione della formula ad alcuni componenti meccanici grazie alla collaborazione di un’azienda meccanica manifatturiera. Considerazioni e conclusioni sui risultati ottenuti, sulla metodologia proposta e sulle applicazioni del nuovo indice, delineando gli obiettivi del proseguo della ricerca. In tutto il lavoro si sono evidenziate connessioni e convergenze delle diverse fonti e individuati in diversi ambiti concetti e teorie che forniscono importanti spunti e considerazioni sul tema della complessità. Particolare attenzione è stata dedicata all’intera bibliografia dei Prof. ElMaraghy al momento riconosciuti a livello internazionale come i più autorevoli studiosi del tema della complessità in ambito industriale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene descritto lo studio delle fasi liquido-cristalline del 4-n-ottil-4-cianobifenile eseguito tramite simulazioni al calcolatore molecular dynamics, sia per campioni bulk che per film smectici sottili. Impiegando un campo di forze "molecular mechanics" precedentemente usato con successo per studiare sistemi composti da 250 molecole della serie degli n-cianobifenili (nCB, con n pari a 4-8 atomi di carbonio nella catena alifatica), si è simulato il comportamento di un sistema bulk di 750 molecole e di un film smectico di 1500 molecole. Nel primo caso, sottoponendo il campione a un graduale raffreddamento, si è osservata la formazione spontanea di fasi ordinate quali quella nematica e quella smectica. Nel secondo caso, invece, si è studiata l'influenza dell'interfaccia con il vuoto sull'ordine posizionale e orientazionale di film sottili di diverso spessore e temperatura. Si sono confrontate le proprietà di entrambi i sistemi simulati con i dati sperimentali disponibili in letteratura, confermando la bontà del modello nel riprodurre fedelmente le caratteristiche dei campioni reali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa dissertazione è quello di costruire un modello di promozione della salute nel contesto di lavoro in relazione al consumo di sostanze psicoattive fra lavoratori, attraverso il confronto tra la situazione italiana e inglese. L’ipotesi di fondo rimanda all’idea che i luoghi di lavoro possano rappresentare setting d’elezione per i progetti di prevenzione non solo perché alcuni studi dimostrano l’esistenza di fattori di rischio connessi alla mansione rispetto alle condotte relative allo stile di vita, ma anche perché il consumo di alcol e droghe è altamente diffuso tra i lavoratori e questo comporta rischi per la sicurezza e la salute personale nonché quella dei colleghi di lavoro. Si tratta quindi di indagare il rapporto tra contesto lavorativo e utilizzo di sostanze al fine di suggerire  alla luce degli studi internazionali in materia e delle riflessioni condotte dai soggetti coinvolti nella ricerca che si andrà a presentare  linee guida e indicazioni operative per la realizzazione di interventi di promozione alla salute nei contesti professionali. A tal fine, saranno analizzati gli esiti di 13 focus group che hanno coinvolto esperti italiani e 6 interviste somministrate a esperti inglesi volti a definire la situazione attuale in Italia e Gran Bretagna in materia di prevenzione del consumo di alcol e droghe nei luoghi di lavoro. In particolare, l’analisi verterà sulle seguenti aree: - Percezione circa la diffusione dei consumi nei luoghi di lavoro - Presentazione delle politiche adottate, in logica comparativa, tra i due paesi. - Analisi critica degli interventi e problematiche aperte. L’analisi del materiale empirico permette di delineare due modelli costruiti sulla base dei focus group e delle interviste: - in Italia si può affermare che prevalga il cd. modello della sicurezza: di recente trasformazione, questo sistema enfatizza la dimensione del controllo, tanto che si parla di sorveglianza sanitaria. É orientato alla sicurezza concepita quale rimozione dei fattori di rischio. Il consumo di sostanze (anche sporadico) è inteso quale espressione di una patologia che richiede l’intervento sanitario secondo modalità previste dal quadro normativo: una procedura che annulla la discrezionalità sia del datore di lavoro sia del medico competente. Si connota inoltre per contraddizioni interne e trasversali rispetto alle categorie lavorative (i controlli non si applicano alle professioni associate a maggiore prestigio sociale sebbene palesemente associate a rischio, come per esempio i medici) e alle sostanze (atteggiamento repressivo soprattutto verso le droghe illegali); - in Gran Bretagna, invece, il modello si configura come responsabilità bilaterale: secondo questo modello, se è vero che il datore di lavoro può decidere in merito all’attuazione di misure preventive in materia di alcol e droghe nei luoghi di lavoro, egli è ritenuto responsabile della mancata vigilanza. D’altro canto, il lavoratore che non rispetta quanto previsto nella politica scritta può essere soggetto a licenziamento per motivi disciplinari. Questo modello, particolarmente attento al consumo di tutte le sostanze psicoattive (legali e illegali), considera il consumo quale esito di una libera scelta individuale attraverso la quale il lavoratore decide di consumare alcol e droghe così come decide di dedicarsi ad altre condotte a rischio. Si propone di ri-orientare le strategie analizzate nei due paesi europei presi in esame attraverso la realizzazione di un modello della promozione della salute fondato su alcuni punti chiave: – coinvolgimento di tutti i lavoratori (e non solo coloro che svolgono mansioni a rischio per la sicurezza) al fine di promuovere benessere secondo un approccio olistico di salute, orientato ad intervenire non soltanto in materia di consumo di sostanze psicoattive (legali e illegali), ma più in generale sulle condotte a rischio; – compartecipazione nelle diverse fasi (programmazione, realizzazione e valutazione del progetto) del lavoratore, datore di lavoro e medico competente secondo una logica di flessibilità, responsabilizzazione condivisa fra i diversi attori, personalizzazione e co-gestione dell’intervento; – azione volta a promuovere i fattori di protezione agendo simultaneamente sul contrasto dei fattori di rischio (stress, alienazione, scarso riconoscimento del ruolo svolto), attraverso interventi che integrano diverse strategie operative alla luce delle evidenze scientifiche (Evidence-Based Prevention); – ricorso a strumenti di controllo (drug testing) subordinato all’esigenza di tutelare l’incolumità fisica del lavoratore e dei colleghi, da attuarsi sempre e comunque attraverso prassi che non violino la privacy e attraverso strumenti in grado di verificare l’effettivo stato di alterazione psico-fisica sul luogo di lavoro; – demedicalizzazione delle situazioni di consumo che non richiedono un intervento prettamente sanitario, ma che al contrario potrebbero essere affrontate attraverso azioni incentrate sul care anziché la cure; – messa a disposizione di servizi ad hoc con funzione di supporto, counselling, orientamento per i lavoratori, non stigmatizzanti e con operatori di formazione non solamente sanitaria, sull’esempio degli EAPs (Employee Assistence Programs) statunitensi. Si ritiene che questo modello possa trasformare i contesti di lavoro da agenzie di controllo orientate alla sicurezza a luoghi di intervento orientati al benessere attraverso un’azione sinergica e congiunta volta a promuovere i fattori di protezione a discapito di quelli di rischio in modo tale da intervenire non soltanto sul consumo di sostanze psicotrope, ma più in generale sullo stile di vita che influenza la salute complessiva.