908 resultados para ricostruzione di immagini stima del rumore regolarizzazioneproblemi mal postivariazione totale
Resumo:
Pós-graduação em Direito - FCHS
Resumo:
Questa tesi di dottorato ha per suo oggetto la ricognizione degli elementi teorici, di linguaggio politico e di influenza concettuale che le scienze sociali tra Ottocento e Novecento hanno avuto nell’opera di Antonio Gramsci. La ricerca si articola in cinque capitoli, ciascuno dei quali intende ricostruire, da una parte, la ricezione gramsciana dei testi classici della sociologia e della scienza politica del suo tempo, dall’altra, far emergere quelle filiazioni concettuali che permettano di valutare la portata dell’influenza delle scienze sociali sugli scritti gramsciani. Il lungo processo di sedimentazione concettuale del lessico delle scienze sociali inizia in Gramsci già negli anni della formazione politica, sullo sfondo di una Torino positivista che esprime le punte più avanzate del “progetto grande borghese” per lo studio scientifico della società e per la sua “organizzazione disciplinata”; di questa tradizione culturale Gramsci incrocia a più riprese il percorso. La sua formazione più propriamente politica si svolge però all’interno del Partito socialista, ancora imbevuto del lessico positivista ed evoluzionista. Questi due grandi filoni culturali costituiscono il brodo di coltura, rifiutato politicamente ma al tempo stesso assunto concettualmente, per quelle suggestioni sociologiche che Gramsci metterà a frutto in modo più organico nei Quaderni. La ricerca e la fissazione di una specifica antropologia politica implicita al discorso gramsciano è il secondo stadio della ricerca, nella direzione di un’articolazione complessiva delle suggestioni sociologiche che i Quaderni assumono come elementi di analisi politica. L’analisi si sposta sulla storia intellettuale della Francia della Terza Repubblica, più precisamente sulla nascita del paradigma sociologico durkheimiano come espressione diretta delle necessità di integrazione sociale. Vengono così messe in risalto alcune assonanze lessicali e concettuali tra il discorso di Durkheim, di Sorel e quello di Gramsci. Con il terzo capitolo si entra più in profondità nella struttura concettuale che caratterizza il laboratorio dei Quaderni. Si ricostruisce la genesi di concetti come «blocco storico», «ideologia» ed «egemonia» per farne risaltare quelle componenti che rimandano direttamente alle funzioni di integrazione di un sistema sociale. La declinazione gramsciana di questo problema prende le forme di un discorso sull’«organicità» che rende più che mai esplicito il suo debito teorico nei confronti dell’orizzonte concettuale delle scienze sociali. Il nucleo di problemi connessi a questa trattazione fa anche emergere l’assunzione di un vero e proprio lessico sociologico, come per i concetti di «conformismo» e «coercizione», comunque molto distante dallo spazio semantico proprio del marxismo contemporaneo a Gramsci. Nel quarto capitolo si affronta un caso paradigmatico per quanto riguarda l’assunzione non solo del lessico e dei concetti delle scienze sociali, ma anche dei temi e delle modalità della ricerca sociale. Il quaderno 22 intitolato Americanismo e fordismo è il termine di paragone rispetto alla realtà che Gramsci si prefigge di indagare. Le consonanze delle analisi gramsciane con quelle weberiane dei saggi su Selezione e adattamento forniscono poi gli spunti necessari per valutare le novità emerse negli Stati Uniti con la razionalizzazione produttiva taylorista, specialmente in quella sua parte che riguarda la pervasività delle tecniche di controllo della vita extra-lavorativa degli operai. L’ultimo capitolo affronta direttamente la questione delle aporie che la ricezione della teoria sociologica di Weber e la scienza politica italiana rappresentata dagli elitisti Mosca, Pareto e Michels, sollevano per la riformulazione dei concetti politici gramsciani. L’orizzonte problematico in cui si inserisce questa ricerca è l’individuazione di una possibile “sociologia del politico” gramsciana che metta a tema quel rapporto, che è sempre stato di difficile composizione, tra marxismo e scienze sociali.
Resumo:
La tesi ha per obiettivo di quantificare gli effetti che la variabilità spaziale del mezzo poroso ha sull'evoluzione di un sistema geochimico. Le reazioni di dissoluzione o precipiazione di minerali modificano la struttura microscopica del mezzo, e con essa le proprietà idrodinamiche del sistema, la permeabilità in modo particolare. La variabilità spaziale iniziale del mezzo può essere causa della formazione di digitazioni o canalizzazioni? La prima parte della tesi tratta il cambiamento di scala, necessario per passare da una simulazione geostatistica su griglia fine al calcolo di trasporto su una tessellazione più grossolana. Nel caso del codice di calcolo Hytec, che implementa uno schema ai volumi finiti basato su discretizzazione in poligoni di Voronoï, sono stati confrontati diversi metodi di calcolo della permeabilità equivalente, seguendo differenti criteri. La seconda parte riguarda i calcoli di trasporto reattivo condotti su famiglie di simulazioni geostatistiche del mezzo; l'influenza della variabilità spaziale iniziale sull'evoluzione dei sistemi viene quantificata grazie ad opportune grandezze osservabili. Sono state studiate due reazioni distinte: un caso di dissoluzione, in maniera più approfondita, e più rapidamente un caso di precipitazione, il cui effetto complessivo è quello di riequilibrare il sistema.
Resumo:
La ricognizione delle opere composte da Filippo Tommaso Marinetti tra il 1909 e il 1912 è sostenuta da una tesi paradossale: il futurismo di Marinetti non sarebbe un'espressione della modernità, bensì una reazione anti-moderna, che dietro a una superficiale ed entusiastica adesione ad alcune parole d'ordine della seconda rivoluzione industriale nasconderebbe un pessimismo di fondo nei confronti dell'uomo e della storia. In questo senso il futurismo diventa un emblema del ritardo culturale e del gattopardismo italiano, e anticipa l’analoga operazione svolta in politica da Mussolini: dietro un’adesione formale ad alcune istanze della modernità, la preservazione dello Status Quo. Marinetti è descritto come un corpo estraneo rispetto alla cultura scientifica del Novecento: un futurista senza futuro (rarissime in Marinetti sono le proiezioni fantascientifiche). Questo aspetto è particolarmente evidente nelle opere prodotte del triennio 1908-1911, che non solo sono molto diverse dalle opere futuriste successive, ma per alcuni aspetti rappresentano una vera e propria antitesi di ciò che diventerà il futurismo letterario a partire dal 1912, con la pubblicazione del Manifesto tecnico della letteratura futurista e l'invenzione delle parole in libertà. Nelle opere precedenti, a un sostanziale disinteresse per il progressismo tecnologico corrispondeva un'attenzione ossessiva per la corporeità e un ricorso continuo all'allegoria, con effetti particolarmente grotteschi (soprattutto nel romanzo Mafarka le futuriste) nei quali si rilevano tracce di una concezione del mondo di sapore ancora medioevo-rinascimentale. Questa componente regressiva del futurismo marinettiano viene platealmente abbandonata a partire dal 1912, con Zang Tumb Tumb, salvo riaffiorare ciclicamente, come una corrente sotterranea, in altre fasi della sua carriera: nel 1922, ad esempio, con la pubblicazione de Gli indomabili (un’altra opera allegorica, ricca di reminiscenze letterarie). Quella del 1912 è una vera e propria frattura, che nel primo capitolo è indagata sia da un punto di vista storico (attraverso la documentazione epistolare e giornalistica vengono portate alla luce le tensioni che portarono gran parte dei poeti futuristi ad abbandonare il movimento proprio in quell'anno) che da un punto di vista linguistico: sono sottolineate le differenze sostanziali tra la produzione parolibera e quella precedente, e si arrischia anche una spiegazione psicologica della brusca svolta impressa da Marinetti al suo movimento. Nel secondo capitolo viene proposta un'analisi formale e contenutistica della ‘funzione grottesca’ nelle opere di Marinetti. Nel terzo capitolo un'analisi comparata delle incarnazioni della macchine ritratte nelle opere di Marinetti ci svela che quasi sempre in questo autore la macchina è associata al pensiero della morte e a una pulsione masochistica (dominante, quest'ultima, ne Gli indomabili); il che porta ad arrischiare l'ipotesi che l'esperienza futurista, e in particolare il futurismo parolibero posteriore al 1912, sia la rielaborazione di un trauma. Esso può essere interpretato metaforicamente come lo choc del giovane Marinetti, balzato in pochi anni dalle sabbie d'Alessandria d'Egitto alle brume industriali di Milano, ma anche come una reale esperienza traumatica (l'incidente automobilistico del 1908, “mitologizzato” nel primo manifesto, ma che in realtà fu vissuto dall'autore come esperienza realmente perturbante).
Resumo:
La ricerca si propone d’indagare sul concetto di “congruità” riferito alle trasformazioni di specifici contesti urbani, e di definire quindi un metodo “non arbitrario” per la valutazione di opere esistenti o in progetto, al fine di riconoscerne il carattere di congruità o, al contrario, d’incongruità. Interventi d’inserimento e di trasformazione, alla scala del comparto urbanistico o anche alla scala edilizia, possono presentarsi come congrui o incongrui rispetto all’identità del luogo di appartenenza (organismo a scala urbana o territoriale). Congrua risulta l’opera che non si pone in (conclamato) contrasto rispetto ai caratteri identitari del contesto. Le definizioni d’incongruità e di opera incongrua, divengono il metro di giudizio del rapporto tra un intervento ed il suo contesto, e si applicano mediante una valutazione che sia metodologicamente fondata e verificata. La valutazione di congruità-incongruità può riferirsi a opere esistenti già realizzate, oppure a progetti di nuove opere; in questo secondo approccio il metodo di valutazione si configura come linea-guida per l’orientamento del progetto stesso in termini di congruità rispetto al contesto. In una fase iniziale la ricerca ha fissato i principi di base, con la definizione di ciò che deve intendersi per congruità e per profilo di congruità. La specifica di congruità, non potendosi basare su una consolidata letteratura (il concetto nei termini descritti è stato introdotto dalla legge 16/2002 della Regione Emilia-Romagna; la Regione stessa riconosce che il concetto è in fase di precisazione tramite sperimentazioni, studi e interventi pilota), muove dallo studio dei concetti di luogo, caratteri del luogo, identità del luogo, contesto urbano, trasformazione dell’ambiente costruito, tutela del patrimonio edilizio, sviluppo tipologico, e superfetazione incongrua. Questi concetti, pur mutuati da ambiti di ricerca affini, costituiscono i presupposti per la definizione di congruità delle trasformazioni di contesti urbani, rispetto all’identità del luogo, tramite la tutela e valorizzazione dei suoi caratteri tipologici costitutivi. Successivamente, la ricerca ha affrontato l’analisi di taluni casi-tipo di opere incongrue. A tale scopo sono stati scelti quattro casi-tipo d’interventi per rimozione di opere ritenute incongrue, indagando la metodologia di valutazione di congruità in essi applicata. Inoltre è stata sperimentata l’applicazione del metodo di valutazione per “categorie di alterazioni” tramite lo studio del centro storico di Reggio Emilia, assunto come contesto urbano campione. Lo studio analitico è sviluppato attraverso l’indagine del rapporto tra edifici e caratteri del contesto, individuando e classificando gli edifici ritenuti incongrui. Qui sono emersi i limiti del metodo di individuazione delle incongruità per categorie di alterazioni; di fatto le alterazioni definite a priori rispetto al contesto, determinano un giudizio arbitrario, in quanto disancorato dai caratteri del luogo. La definizione di ciò che è congruo o incongruo deve invece riferirsi a uno specifico contesto, e le alterazioni dei caratteri che rappresentano l’identità del luogo non possono definirsi a priori generalizzandone i concetti. Completando la ricerca nella direzione del risultato proposto, si è precisato il metodo di valutazione basato sulla coincidenza dei concetti di congruità e di pertinenza di fase, in rapporto allo sviluppo tipologico del contesto. La conoscenza del contesto nei suoi caratteri tipologici, è già metodo di valutazione: nella misura in cui sia possibile effettuare un confronto fra contesto ed opera da valutare. La valutazione non si pone come vincolo all’introduzione di nuove forme che possano rappresentare un’evoluzione dell’esistente, aggiornando il processo di sviluppo tipologico in relazione alle mutazioni del quadro esigenzialeprestazionale, ma piuttosto come barriera alle trasformazioni acritiche nei confronti del contesto, che si sovrappongano o ne cancellino inconsapevolmente i segni peculiari e identitari. In ultima analisi, ai fini dell’applicabilità dei concetti esposti, la ricerca indaga sulla convergenza tra metodo proposto e possibili procedure applicative; in questo senso chiarisce come sia auspicabile definire la congruità in relazione a procedure valutative aperte. Lo strumento urbanistico, inteso come sistema di piani alle diverse scale, è l’ambito idoneo a recepire la lettura della stratificazione dei segni indentitari rilevabili in un contesto; lettura che si attua tramite processi decisionali partecipati, al fine di estendere alla collettività la definizione d’identità culturale del luogo. La valutazione specifica di opere o progetti richiede quindi una procedura aperta, similmente alla procedura di valutazione in vigore presso le soprintendenze, basandosi sul concetto di responsabilità del progettista e del valutatore, in riferimento alla responsabilità della collettività, espressa invece nello strumento urbanistico. Infatti la valutazione di tipo oggettivo, basata sul riferimento a regolamenti o schemi precostituiti, confligge con il senso della valutazione metodologicamente fondata che, al contrario, è assunto teorico basilare della ricerca.
Resumo:
La rapida crescita di Internet e del numero di host connessi sta portando sempre di più alla nascita di nuove forme di tecnlogie ed applicazioni serverside, facendo del client un thin-client. Il Cloud Computing offre una valida piattaforma a queste nuove tecnologie, ma esso si deve confrontare con diverse problematiche, fra cui la richiesta energetica sempre più crescente, che si ripercuote su un'inevitabile aumento dei gas serra prodotti indirettamente. In questa tesi analizzeremo i problemi energetici legati al Cloud Computing e le possibili soluzioni, andando infine a creare una tassonomia fra i diversi Cloud Computing più importanti sul mercato attuale.
Resumo:
Nel tentativo di rispondere alle esigenze valutate in seguito all’analisi del centro storico in base a differenti profili investigativi, si è formulato un programma di intervento con obiettivi e strategie codificate. In modo particolare viene privilegiata l’indagine effettuata a livello sociale sulla popolazione del centro storico, ambito di ricerca necessario per una buona premessa per un progetto che ha come oggetto l’abitare. Da queste considerazioni nasce l’idea del progetto dove il tema della residenza si inserisce in un contesto urbano in stretta relazione con il tessuto storico della città di Forlì. L’individuazione dell’area di progetto, situata in una posizione di confine tra due realtà differenti, il centro storico e la circonvallazione che lo racchiude, suggerisce la necessità di stabilire attraverso collegamenti perdonali e ciclabili fra l’area in esame e la periferia esterna una configurazione dinamica, dove il vuoto urbano che si presenta è lo scenario ideale per ristabilire una porta moderna alla città, ricomponendo la leggibilità tra la sfera naturale e quella insediativa. Alla scala urbana l’obiettivo è quello di stabilire il ruolo di centralità dell’area, nel suo insieme, restituendo ai fatti urbani della città le funzioni di interesse pubblico generale. La zona oggetto di discussione è un nodo urbano in cui coesistono manufatti di pregio architettonico e storico come quello della Filanda in oggetto e dell’Ex Complesso conventuale della Ripa, in grado di essere potenziali contenitori di funzioni pubbliche di alto livello, e aree verdi da riqualificare, con forte propensione all’uso pubblico, come gli Orti di via Curte. Sotto questo profilo deve essere valutata anche la tematica del rapporto con l’architettura antica, tenendo in considerazione l’effetto di impatto che i nuovi interventi avranno sull’esistente. È dunque il sito di progetto che detta le metodologie di approccio legate alla necessità di un intervento sostenibile e non invasivo. Partendo da queste considerazioni si sviluppano le tematiche legate alla flessibilità e alle sue coniugazioni. La società contemporanea che ci impone ogni giorno modelli di vita sempre nuovi e la necessità di movimento e trasformazione, ci mette di fronte più che mai al bisogno di progettare spazi non rigidi, ma aperti alle molteplici possibilità d’uso e ai cambiamenti nel tempo. La flessibilità viene dunque concepita in relazione ai concetti di complessità e sostenibilità. Se da una parte è necessario riconoscere la molteplicità dei modi d’uso con i quali l’oggetto dovrà confrontarsi ed assumere il carattere aleatorio di qualsiasi previsione relativa ai modelli di comportamento dell’utenza, dall’altra occorre cogliere all’interno del progetto della residenza flessibile la possibilità di pervenire a un costruire capace di riconfigurarsi di volta in volta, adattandosi alle differenti condizioni d’uso, senza dover procedere a drastiche modifiche che impongono la dismissione di materiali e componenti. Il sistema della stratificazione a secco può essere quello che attualmente meglio risponde, per qualità ed economicità, ai concetti della biologia dell’abitare e della casa intelligente, nozioni che acquisiscono sempre più importanza all’interno di una nuova concezione della progettazione. Si sceglie dunque di riportare la Filanda, quanto possibile, alla riconfigurazione originaria, prima che la corte interna fosse completamente saturata di depositi e magazzini come ci si presenta oggi e di concepire una nuova configurazione di quello che diventa un isolato urbano integrato nel tessuto storico, e nodo strutturante per un’area più vasta. Lavorando sulla residenza occorre mettere in primo piano il protagonista dell’architettura che si va a progettare: l’uomo. Per questo la scala urbana e la dimensione umana devono essere concepite parallelamente e la progettazione della cellula di base che si struttura secondo le modalità premesse di flessibilità e sostenibilità si sovrappone all’obiettivo di individuare all’interno del vuoto urbano, una nuova densità, dove il dialogo tra pubblico e privato sia il presupposto per lo sviluppo di un piano integrato e dinamico.
Resumo:
Abstract. This thesis presents a discussion on a few specific topics regarding the low velocity impact behaviour of laminated composites. These topics were chosen because of their significance as well as the relatively limited attention received so far by the scientific community. The first issue considered is the comparison between the effects induced by a low velocity impact and by a quasi-static indentation experimental test. An analysis of both test conditions is presented, based on the results of experiments carried out on carbon fibre laminates and on numerical computations by a finite element model. It is shown that both quasi-static and dynamic tests led to qualitatively similar failure patterns; three characteristic contact force thresholds, corresponding to the main steps of damage progression, were identified and found to be equal for impact and indentation. On the other hand, an equal energy absorption resulted in a larger delaminated area in quasi-static than in dynamic tests, while the maximum displacement of the impactor (or indentor) was higher in the case of impact, suggesting a probably more severe fibre damage than in indentation. Secondly, the effect of different specimen dimensions and boundary conditions on its impact response was examined. Experimental testing showed that the relationships of delaminated area with two significant impact parameters, the absorbed energy and the maximum contact force, did not depend on the in-plane dimensions and on the support condition of the coupons. The possibility of predicting, by means of a simplified numerical computation, the occurrence of delaminations during a specific impact event is also discussed. A study about the compressive behaviour of impact damaged laminates is also presented. Unlike most of the contributions available about this subject, the results of compression after impact tests on thin laminates are described in which the global specimen buckling was not prevented. Two different quasi-isotropic stacking sequences, as well as two specimen geometries, were considered. It is shown that in the case of rectangular coupons the lay-up can significantly affect the damage induced by impact. Different buckling shapes were observed in laminates with different stacking sequences, in agreement with the results of numerical analysis. In addition, the experiments showed that impact damage can alter the buckling mode of the laminates in certain situations, whereas it did not affect the compressive strength in every case, depending on the buckling shape. Some considerations about the significance of the test method employed are also proposed. Finally, a comprehensive study is presented regarding the influence of pre-existing in-plane loads on the impact response of laminates. Impact events in several conditions, including both tensile and compressive preloads, both uniaxial and biaxial, were analysed by means of numerical finite element simulations; the case of laminates impacted in postbuckling conditions was also considered. The study focused on how the effect of preload varies with the span-to-thickness ratio of the specimen, which was found to be a key parameter. It is shown that a tensile preload has the strongest effect on the peak stresses at low span-to-thickness ratios, leading to a reduction of the minimum impact energy required to initiate damage, whereas this effect tends to disappear as the span-to-thickness ratio increases. On the other hand, a compression preload exhibits the most detrimental effects at medium span-to-thickness ratios, at which the laminate compressive strength and the critical instability load are close to each other, while the influence of preload can be negligible for thin plates or even beneficial for very thick plates. The possibility to obtain a better explanation of the experimental results described in the literature, in view of the present findings, is highlighted. Throughout the thesis the capabilities and limitations of the finite element model, which was implemented in an in-house program, are discussed. The program did not include any damage model of the material. It is shown that, although this kind of analysis can yield accurate results as long as damage has little effect on the overall mechanical properties of a laminate, it can be helpful in explaining some phenomena and also in distinguishing between what can be modelled without taking into account the material degradation and what requires an appropriate simulation of damage. Sommario. Questa tesi presenta una discussione su alcune tematiche specifiche riguardanti il comportamento dei compositi laminati soggetti ad impatto a bassa velocità. Tali tematiche sono state scelte per la loro importanza, oltre che per l’attenzione relativamente limitata ricevuta finora dalla comunità scientifica. La prima delle problematiche considerate è il confronto fra gli effetti prodotti da una prova sperimentale di impatto a bassa velocità e da una prova di indentazione quasi statica. Viene presentata un’analisi di entrambe le condizioni di prova, basata sui risultati di esperimenti condotti su laminati in fibra di carbonio e su calcoli numerici svolti con un modello ad elementi finiti. È mostrato che sia le prove quasi statiche sia quelle dinamiche portano a un danneggiamento con caratteristiche qualitativamente simili; tre valori di soglia caratteristici della forza di contatto, corrispondenti alle fasi principali di progressione del danno, sono stati individuati e stimati uguali per impatto e indentazione. D’altro canto lo stesso assorbimento di energia ha portato ad un’area delaminata maggiore nelle prove statiche rispetto a quelle dinamiche, mentre il massimo spostamento dell’impattatore (o indentatore) è risultato maggiore nel caso dell’impatto, indicando la probabilità di un danneggiamento delle fibre più severo rispetto al caso dell’indentazione. In secondo luogo è stato esaminato l’effetto di diverse dimensioni del provino e diverse condizioni al contorno sulla sua risposta all’impatto. Le prove sperimentali hanno mostrato che le relazioni fra l’area delaminata e due parametri di impatto significativi, l’energia assorbita e la massima forza di contatto, non dipendono dalle dimensioni nel piano dei provini e dalle loro condizioni di supporto. Viene anche discussa la possibilità di prevedere, per mezzo di un calcolo numerico semplificato, il verificarsi di delaminazioni durante un determinato caso di impatto. È presentato anche uno studio sul comportamento a compressione di laminati danneggiati da impatto. Diversamente della maggior parte della letteratura disponibile su questo argomento, vengono qui descritti i risultati di prove di compressione dopo impatto su laminati sottili durante le quali l’instabilità elastica globale dei provini non è stata impedita. Sono state considerate due differenti sequenze di laminazione quasi isotrope, oltre a due geometrie per i provini. Viene mostrato come nel caso di provini rettangolari la sequenza di laminazione possa influenzare sensibilmente il danno prodotto dall’impatto. Due diversi tipi di deformate in condizioni di instabilità sono stati osservati per laminati con diversa laminazione, in accordo con i risultati dell’analisi numerica. Gli esperimenti hanno mostrato inoltre che in certe situazioni il danno da impatto può alterare la deformata che il laminato assume in seguito ad instabilità; d’altra parte tale danno non ha sempre influenzato la resistenza a compressione, a seconda della deformata. Vengono proposte anche alcune considerazioni sulla significatività del metodo di prova utilizzato. Infine viene presentato uno studio esaustivo riguardo all’influenza di carichi membranali preesistenti sulla risposta all’impatto dei laminati. Sono stati analizzati con simulazioni numeriche ad elementi finiti casi di impatto in diverse condizioni di precarico, sia di trazione sia di compressione, sia monoassiali sia biassiali; è stato preso in considerazione anche il caso di laminati impattati in condizioni di postbuckling. Lo studio si è concentrato in particolare sulla dipendenza degli effetti del precarico dal rapporto larghezza-spessore del provino, che si è rivelato un parametro fondamentale. Viene illustrato che un precarico di trazione ha l’effetto più marcato sulle massime tensioni per bassi rapporti larghezza-spessore, portando ad una riduzione della minima energia di impatto necessaria per innescare il danneggiamento, mentre questo effetto tende a scomparire all’aumentare di tale rapporto. Il precarico di compressione evidenzia invece gli effetti più deleteri a rapporti larghezza-spessore intermedi, ai quali la resistenza a compressione del laminato e il suo carico critico di instabilità sono paragonabili, mentre l’influenza del precarico può essere trascurabile per piastre sottili o addirittura benefica per piastre molto spesse. Viene evidenziata la possibilità di trovare una spiegazione più soddisfacente dei risultati sperimentali riportati in letteratura, alla luce del presente contributo. Nel corso della tesi vengono anche discussi le potenzialità ed i limiti del modello ad elementi finiti utilizzato, che è stato implementato in un programma scritto in proprio. Il programma non comprende alcuna modellazione del danneggiamento del materiale. Viene però spiegato come, nonostante questo tipo di analisi possa portare a risultati accurati soltanto finché il danno ha scarsi effetti sulle proprietà meccaniche d’insieme del laminato, esso possa essere utile per spiegare alcuni fenomeni, oltre che per distinguere fra ciò che si può riprodurre senza tenere conto del degrado del materiale e ciò che invece richiede una simulazione adeguata del danneggiamento.
Resumo:
L’oggetto della presente tesi di ricerca è l’analisi della situazione attuale della protezione degli interessi finanziari delle Comunità Europee, oltre che le sue prospettive di futuro. Il lavoro è suddiviso in due grandi parti. La prima studia il regime giuridico del Diritto sanzionatorio comunitario, cioè, la competenza sanzionatoria dell’Unione Europea. Questa sezione è stata ricostruita prendendo in considerazione i precetti normativi del Diritto originario e derivato, oltre che le principali sentenze della Corte di Giustizia, tra cui assumono particolare rilievo le sentenze di 27 ottobre 1992, Germania c. Commissione, affare C-240/90 e di 13 settembre 2005 e di 23 ottobre 2007, Commissione c. Consiglio, affari C-176/03 e C-440/05. A questo segue l’analisi del ruolo dei diritti fondamentali nell’ordinamento comunitario, così come la rilevanza della Convenzione Europea dei Diritti dell’Uomo e la Corte Europea dei Diritti dell’Uomo. Il secondo capitolo si sofferma particolarmente sullo studio delle sanzioni comunitarie, classificandole in ragione della loro natura giuridica alla luce anche dei principi generali di legalità, di proporzionalità, di colpevolezza e del non bis in idem. La seconda sezione sviluppa un’analisi dettagliata del regime giuridico della protezione degli interessi finanziari comunitari. Questa parte viene costruita indagando tutta l’evoluzione normativa e istituzionale, in considerazione anche delle novità più recenti (ad esempio, l’istituzione del Pubblico Ministero Europeo). In questo contesto si definisce il contenuto del concetto di interessi finanziari comunitari, dato che non esiste un’analoga definizione comunitaria della fattispecie. L’attenzione del dottorando si concentra poi sulla Convenzione avente ad oggetto la tutela degli interessi finanziari delle Comunità Europee e i regolamenti del Consiglio n. 2988/95 e 2185/96, che costituiscono la parte generale del Diritto sanzionatorio comunitario. Alla fine si esamina la ricezione della Convenzione PIF nel Codice Penale spagnolo e i principali problemi di cui derivano. L’originalità dell’approccio proposto deriva dell’assenza di un lavoro recente che, in modo esclusivo e concreto, analizzi la protezione amministrativa e penale degli interessi finanziari della Comunità. Inoltre, la Carta Europea di Diritti Fondamentali e il Trattato di Lisbona sono due grandi novità che diventeranno una realtà tra poco tempo.
Resumo:
Il presente lavoro di tesi è stato realizzato al fine di valutare la distribuzione geografica ed i livelli ambientali di concentrazione per una serie di metalli (Cr, Cu, Ni, Zn, Mn, Co, V, Ba, Pb, Sr e Hg) presenti all’interno dei sedimenti della laguna costiera Pialassa Baiona, situata nei pressi del porto e dell’area industriale di Ravenna. L’area di studio considerata rappresenta un esempio di ambiente di transizione, dove i fattori fisici e chimici variano su scala spaziale e temporale e dove le attività antropiche, recenti e non, hanno provocato impatti significativi sullo stato di qualità dei sedimenti, delle acque e degli ecosistemi. Lo studio è stato progettato seguendo un disegno di campionamento ortogonale, che tiene conto del gradiente naturale terra-mare, tipico delle zone di transizione, e del gradiente antropico, legato alla vicinanza con l’area industriale. Sulla base di questo disegno sono state campionate 4 aree differenti e per ciascuna area sono stati scelti casualmente tre siti. La caratterizzazione dei sedimenti dal punto di vista chimico è stata effettuata determinando la frazione labile e quindi più biodisponibile dei metalli, oggetto del presente studio, per mezzo di una tecnica di estrazione parziale con HCl 1 M. Le concentrazioni biodisponibili ottenute sono state poi confrontate con il contenuto totale dei metalli, determinato mediante digestione totale al micronde. I sedimenti sono stati inoltre caratterizzati dal punto di vista granulometrico e del contenuto in sostanza organica (Loss on Ignition, LOI%). I risultati ottenuti dalle analisi chimiche sono stati confrontati con i valori tipi di fondo naturale del Mar Adriatico e con i valori guida di riferimento nazionale (SQA-MA) ed internazionale (ERL, ERM, TEL e PEL), al fine di valutare lo stato di qualità dei sedimenti della Baiona e di effettuare uno screening per individuare eventuali situazioni di rischio per gli organismi bentonici. I risultati ottenuti sono stati poi elaborati statisticamente con un analisi della varianza (ANOVA) con lo scopo di valutare la variabilità spaziale dei metalli nei campioni analizzati e la presenza di eventuali differenze significative.
Resumo:
Nonostante la riforma societaria ed i tentativi di rilanciare l’economia nazionale, ancora oggi la principale fonte di ricchezza e di capitalizzazione resta l’investimento immobiliare. Ed ecco perchè si sente sempre più parlare di “Real Estate”, ovvero dei diritti reali sui beni immobili, della loro circolazione, e delle garanzie e tutele ad essa correlate. Dalla vendita immobiliare tipizzata nel codice civile del ’42 ad oggi molto è cambiato. E il mio lavoro parte proprio da un’analisi delle nuove forme e dei nuovi limiti alla circolazione degli immobili. In primis ho affrontato il tema del riconoscimento giurisprudenziale della cessione di cubatura: un esempio tipico del passaggio dal fatto al diritto attraverso la costruzione giurisprudenziale di nuove fattispecie giuridiche già in uso fra gli operatori del mercato. Tecnicamente la stessa espressione “cessione di cubatura” non risulta corretta: non si ha una vera e propria cessione, quanto la costituzione di una servitù ius non edificandi a favore di un terreno e a carico di un altro. La giurisprudenza è ormai concorde nello stabilire che l’accordo delle parti rimane comunque privo di efficacia se ad esso non segue un permesso di costruire della Pubblica Amministrazione che riconosca la maggiore capacità edificatoria al terreno a cui vantaggio è stabilità la servitù. Un’altra nuova forma di circolazione della proprietà, così come degli altri diritti reali minori, è la multiproprietà. La multiproprietà viene disciplinata nel nostro ordinamento, a seguito di una risoluzione del Parlamento Europeo del 13 ottobre 1988, dapprima con il D.lgs. 9 novembre 1998 e da ultimo con il Codice del Consumo, che con gli artt. 69 ss. stabilisce una più puntuale tutela degli acquirenti. Si riconosce qui l’esistenza di uno squilibrio fra le posizioni contrattuali fra venditore ed acquirente/consumatore: vi è una profonda asimmetria informativa fra le parti, che viene colmata prevedendo la consegna al futuro acquirente di un dettagliato prospetto informativo predisposto dal venditore. La mia attenzione si è concentrata proprio sul tema delle tutele che il nostro ordinamento riconosce al consumatore multiproprietario: un prospetto informativo dal contenuto minimo legislativamente predeterminato, recesso, fideiussione. Ho dedicato un particolare approfondimento alla normativa sull’acquisto immobiliare sulla carta. Il D.lgs. 122/2005 si inserisce nel contesto di una legislazione, che spesso trova la sua origine nel diritto privato europeo, finalizzata alla regolamentazione di un fenomeno sempre più frequente nella realtà economica contemporanea, rappresentato dalla contrattazione fra soggetti che si trovano in una posizione di squilibrio contrattuale: un “contraente forte” da una parte, ed un “contraente debole” dall’altra. La legislazione nazionale interviene sempre più frequentemente per porre un rimedio a queste situazioni di squilibrio, con interventi di tipo conformativo intesi a rendere effettiva l’autonoma contrattuale delle parti e, conseguentemente, agevolare il corretto funzionamento del mercato. Si parla in tal senso di una ius espansiva del modello europeo di legislazione a tutela del contraente debole, e quindi di una espansione del diritto privato europeo anche in settori dove manca una puntuale normativa comunitaria. Vi è una generale tendenza ad un “neoformalismo”, che consiste nella richiesta espressa della forma scritta e nella conformazione del contenuto del contratto, che solo apparentemente limitano l’autonomia contrattuale delle parti ma che tende ad eliminare le situazioni di squilibrio dando una tutela effettiva al contraente debole. Contraente debole e non “consumatore”. L’art. 1 del decreto parla, infatti, espressamente di “persona fisica”. Secondo gli orientamenti dottrinali maggioritari dalla nuova disciplina resterebbero esclusi, e quindi non rientrerebbero nella definizione di “acquirenti”, le società, le persone giuridiche e gli enti collettivi in generale. Si riconosce la figura del “professionista debole”, giacché si riconosce che l’acquisto di un immobile da costruire sia un’operazione che, in virtù della sua importanza economica, viene gestita con maggiore avvedutezza: l’acquisto di un immobile non è propriamente “atto di consumo”in senso tecnico. L’esigenza di tutela è diversa: si vuole tutelare l’acquirente in considerazione dell’intrinseca rischiosità dell’operazione, stabilendo alcuni profili fondamentali del contenuto del contratto non solo e non tanto a fini informativi, quanto piuttosto per una “tutela sostanziale” dell’acquirente. Il legislatore si preoccupa di predisporre garanzie obbligatorie per il caso di dissesto dell’impresa costruttrice. Le garanzie, quindi, come forma di tutela del contraente debole. Il mio lavoro si concentra, a questo punto, sulle garanzie personali e reali. Poche le novità sulle garanzie, ma alcune significative. Nel campo delle garanzie personali, acquista maggiore rilevanza la fideiussione prestata dal contraente forte a favore del contraente debole, affinché quest’ultimo possa recuperare tutte le somme investite per l’acquisto dell’immobile: sia esso un immobile in multiproprietà, sia esso un immobile ancora da costruire. E ancora le garanzie reali: pegno e ipoteca. Ho posto particolare attenzione al tema della "portabilità" dei mutui e surrogazione ex art. 1202 c.c. ed al tema delle formalità ipotecarie così come previsti dagli artt. 6, 7 e 8 della l. 2 aprile 2007, n. 40 sulla concorrenza. Ma la mia attenzione si è soffermata soprattutto sul tema della nullità ed in particolare sulla nullità relativa. La più recente legislazione speciale, specie quella di derivazione europea, ha dato un grosso scossone alla dogmatica tradizionale della nullità negoziale. Le fattispecie di nullità relativa sono sempre più frequenti, tanto da far parlare di una nuova categoria di nullità c.d. “nullità di protezione”. Quest’ultima risponde ad esigenze profondamente differenti dalla nullità assoluta di stampo codicistico. In luogo della nullità, sembra oggi più corretto parlare delle nullità: diverse categorie di invalidità, ciascuna delle quali soddisfa interessi diversificati, e come tale riceve anche una disciplina differenziata in termini di legittimazione all’azione, rilevabilità d’ufficio, prescrittibilità, sanabilità, opponibilità ai terzi. Ancora una volta partendo da un’analisi critica del D.lgs. 122/2005, ho avuto modo di approfondire il fondamentale tema della nullità nel nostro ordinamento. L’art. 2 del decreto stabilisce espressamente la nullità relativa, e cioè azionabile dal solo acquirente parte debole del contratto, nel caso in cui non sia rilasciata dal venditore la fideiussione. L’art. 6 stabilisce, invece, un contenuto minimo del contratto poste a tutela della parte debole e del corretto funzionamento del mercato immobiliare. Se ad alcune di esse può attribuirsi un valore meramente ordinatorio, altre al contrario rivestono una natura di norme imperative di ordine pubblico attinenti più precisamente al c.d. ordine pubblico di protezione ed al c.d. ordine pubblico di direzione. Nel sistema del nostro codice, la violazione di norma imperative dà luogo, ex art. 1418, alla nullità del contatto salvo che la legge stabilisca diversamente. E’quindi configurabile una nullità virtuale del contratto, ovvero non espressamente e letteralmente stabilita, ma che può essere desunta dal tenore imperativo delle norme. La dottrina prevalente è ormai orientata nel senso di ammettere che anche la nullità relativa possa essere virtuale, nel quadro di un orientamento, ormai dominante, volto al superamento dell’approccio tendente a far rientrare nell’eccezionalità qualsiasi difformità dal modello classico della nullità. Il problema, quindi, si sposta all’individuazione della natura imperativa della norma violata. In linea generale si afferma che perché una norma possa essere definita imperativa debba porre un comando o un divieto espresso, debba essere inderogabile ed indisponibile. Oggetto di dibattiti dottrinali è, poi, il tema della rilevabilità d’ufficio delle nullità relative. A fronte di una prima posizione dottrinale tendente ad escludere tale rilevabilità d’ufficio sul presupposto di una sua inconciliabilità con il regime di legittimazione relativa all’azione di nullità, dottrina e giurisprudenza più recenti appaiono concordi nel ritenere assolutamente conciliabili tali due profili. Si concorda, inoltre, sull’esistenza di limitazioni alla rilevabilità d’ufficio della nullità: la nullità può essere rilevata d’ufficio dal giudice, ma tale rilievo deve operare nell’esclusivo interesse del contraente debole, dovendo il giudice bloccarsi davanti ad un concreto interesse della parte a mantenere in vita il contratto. Discorso a sé stante deve poi esser fatto sul rapporto fra nullità relativa e nullità virtuale e responsabilità del notaio rogante. Secondo l’orientamento dominante della giurisprudenza, nella misura in cui vi sia una violazione di norme imperative, e l’imperatività sia evidente, manifesta, dal tenore delle disposizioni, deve ritenersi che la nullità, sia testuale che virtuale, comporti la responsabilità del notaio ai sensi dell’art. 28 l. not. Ogni qualvolta, viceversa, tale nullità non si configuri, la responsabilità disciplinare sarà esclusa. Si avverte, comunque, una prima apertura verso la sanzionabilità delle nullità relative che siano manifeste. In chiusura del mio lavoro non ho potuto non tenere conto della recente crisi dei mercati internazionali. Crisi che ha avuto inizio proprio con il crollo negli Stati Uniti dei settori immobiliare e finanziario, improntati verso una eccessiva deregolamentazione e valorizzazione dell’autonomia contrattuale delle parti. L’assenza di garanzie sicure e la carenza di controllo di un professionista corrispondente al nostro notaio pubblico ufficiale, ha portato ad investimenti e finanziamenti azzardati da parte delle banche e degli istituti di credito che stanno vivendo un momento di profonda crisi aprendo la strada ad una recessione economica di portata mondiale.
Resumo:
Although in Europe and in the USA many studies focus on organic, little is known on the topic in China. This research provides an insight on Shanghai consumers’ perception of organic, aiming at understanding and representing in graphic form the network of mental associations that stems from the organic concept. To acquire, process and aggregate the individual networks it was used the “Brand concept mapping” methodology (Roedder et al., 2006), while the data analysis was carried out also using analytic procedures. The results achieved suggest that organic food is perceived as healthy, safe and costly. Although these attributes are pretty much consistent with the European perception, some relevant differences emerged. First, organic is not necessarily synonymous with natural product in China, also due to a poor translation of the term in the Chinese language that conveys the idea of a manufactured product. Secondly, the organic label has to deal with the competition with the green food label in terms of image and positioning on the market, since they are easily associated and often confused. “Environmental protection” also emerged as relevant association, while the ethical and social values were not mentioned. In conclusion, health care and security concerns are the factors that influence most the food consumption in China (many people are so concerned about food safety that they found it difficult to shop), and the associations “Safe”, “Pure and natural”, “without chemicals” and “healthy” have been identified as the best candidates for leveraging a sound image of organic food .
Resumo:
Questo lavoro nasce principalmente da un legame affettivo e di parentela che mi lega alla figura di Mario Giacomelli e alla sua grande opera di fotografo che lo ha portato a raggiungere un ruolo fondamentale nella storia della fotografia contemporanea. Ricordo che sin da quando ero bambino rimanevo affascinato dalle sue opere, da quei paesaggi fotografati in bianco e nero, da quelle sagome dei pretini che sembrano danzare nel vuoto, il tutto però senza capire la vera importanza di quello che avevo davanti ai miei occhi e ignorando completamente tutto l’interesse, le critiche e i dibattiti che quegli scatti accendevano in quegli anni, al punto di venire addirittura esposti in quello che si può definire il museo di arte moderna per antonomasia, ovvero il MoMa, in fondo per me non era altro che uno zio. Il ricordo mi porta nella sua piccola e buia Tipografia Marchigiana, in pieno centro storico a Senigallia, proprio dietro il Municipio, dove lo trovavo sempre indaffarato con timbri, foto e oggetti di ogni tipo, sommerso in un caos primordiale. È incredibile pensare come in quel minuscolo negozio siano passati tutti i più grandi personaggi della fotografia italiana, quali Giuseppe Cavalli, Ferruccio Ferroni, Gianni Berengo Gardin, Ferdinando Scianna; dietro quella facciata di piccola bottega si nascondeva un universo parallelo che entrava in contatto con le più importanti gallerie e musei di arte contemporanea del mondo. Oggi al suo posto c’è una Parrucchieria. Molte cose sono cambiate, io ho capito, aimè in ritardo, l’importanza del personaggio che ho avuto la fortuna di conoscere e di avere come parente. La città stessa si è accorta solo dopo la morte, come spesso accade, di quale formidabile artista ha cresciuto, un artista che è sempre rimasto fedele alla sua terra di origine, che ha rappresentato una fonte inesauribile di spunti per la sua opera fotografica. A quel punto si è scatenato un turbinio di conferenze, mostre e pubblicazioni sul lavoro di Giacomelli, tanto che sarebbe rimasto impossibile a chiunque non capire il peso che questa figura ha ancora oggi per la città. Proprio lo scorso Novembre è ricorso il decennale della sua scomparsa e in questa occasione si è dato il via ad una infinita serie di iniziative, mostre, conferenze e pubblicazioni dedicate alla figura del fotografo senigalliese, ribadendo la necessità per la città di dotarsi di uno spazio idoneo ad ospitare questi eventi. In una recente intervista condotta dal quotidiano Il Resto del Carlino, Simone Giacomelli, figlio del fotografo, ha sottolineato l’urgenza della creazione di uno spazio dedicato alle fotografie del padre “Io lavoro molto con l'estero e sono in contatto con appassionati che arrivano da tutto il mondo per ammirare le foto di Giacomelli. C'è un gruppo di studenti che mi ha contattato dall'Australia. Ho dovuto dire di aspettare perché in città c'è una raccolta di foto al Museo mezzadria ed una parte al Museo dell'informazione. Manca un luogo dove si possa invece vedere tutta la produzione.”. Con queste premesse il progetto per un Centro Internazionale della Fotografia non poteva che essere a Senigallia, non tanto per il fatto di essere la mia città, alla quale sono molto legato, quanto per l’essere stata la culla di un grande artista quale Mario Giacomelli, dalla quale non si è mai voluto allontanare e che ha rappresentato per lui la fonte di ispirazione di quasi tutte le sue opere. Possiamo dire che grazie a questo personaggio, Senigallia è diventata la città della Fotografia, in quanto non passa settimana senza che non venga presentata una nuova iniziativa in ambito fotografico e non vengano organizzate mostre di fotografi di calibro internazionale quali Henri Cartier Bresson, Ara Guler, etc… Ecco quindi motivato il titolo di Internazionale attribuito al museo, in quanto da questo cuore pulsante si dovranno creare una serie di diramazioni che andranno a collegare tutti i principali centri di fotografia mondiali, favorendo lo scambio culturale e il dibattito. Senigallia è una città di modeste dimensioni sulla costa adriatica, una città dalle grandi potenzialità e che fa del turismo sia balneare che culturale i suoi punti di forza. La progettazione di questa sede museale mi ha permesso di affrontare e approfondire lo studio storico della città nella sua evoluzione. Da questa analisi è emerso un caso molto particolare ed interessante, quello di Piazza Simoncelli, un vuoto urbano che si presenta come una vera e propria lacerazione del tessuto cittadino. La piazza infatti è stata sede fino al 1894 di uno dei quattro lotti del ghetto ebraico. Cambia quindi il ruolo del sito. Ma la mancata capacità aggregativa di questo vuoto, data anche dal fatto della mancanza di un edificio rappresentativo, ne muta il ruolo in parcheggio. E’ la storia di molti ghetti italiani inseriti in piani di risanamento che vedevano la presenza del costruito antecedente, come anomalia da sanare. E’ la storia del ghetto di Roma o di quello di Firenze, che sorgeva nel luogo dell’attuale Piazza della Repubblica. Tutti sventrati senza motivazioni diverse che non la fatiscenza dell’aggregato. A Senigallia il risultato è stato una vera e propria lacerazione del tessuto urbano, giungendo alla produzione di un vuoto oppositivo al resto della città, che ha portato la perdita della continuità spaziale, se non si vuole poi far riferimento a quella culturale. Il mio intervento quindi vede nel legame con la storia e con l’identità del luogo un punto fondamentale di partenza. Da queste basi ho cercato di sviluppare un progetto che ha come presupposto il forte legame con la memoria del luogo e con le architetture locali. Un progetto che possa rappresentare un polo culturale, un cuore pulsante dove poter sviluppare e approfondire le conoscenze fotografiche, dal quale poter entrare in contatto con tutti i principali centri dedicati alla fotografia e nel quale poter tenere sempre vivo il ricordo di uno dei più importanti artisti che la città ha avuto la fortuna di crescere.
Resumo:
Il presente lavoro di tesi di laurea magistrale si è proposto di sintetizzare composti polimerici basati su un derivato del 3-esiltiofene e sulla porfirina per preparare materiali da utilizzare nelle celle fotovoltaiche. Politiofeni con queste caratteristiche sono stati sintetizzati a partire da un monomero -bromoalchiltiofenico, il 3-(6-bromoesil)tiofene (T6Br), dal quale è stato ottenuto il corrispondente derivato polimerico poli[3-(6-bromoesil)]tiofene (PT6Br). Esso è stato preparato con un metodo non regiospecifico, utilizzando la comune tecnica di polimerizzazione ossidativa in presenza di FeCl3. Il monomero T6Br è stato funzionalizzato con idrossifenil porfirina (TPPOH) per dare il 3-[5-(4-fenossi)-10,15,20-trifenilporfirinil]esiltiofene (T6TPP). Poiché la polimerizzazione diretta di questo monomero non si è mostrata una via percorribile, a causa dell’elevato ingombro del sostituente presente sulla catena macromolecolare, è stata effettuata l’eterificazione sul polimero bromurato PT6Br per ottenere il poli[3-[5-(4-fenossi)-10,15,20-trifenilporfirinil]esiltiofene] (PT6TPP). Contemporaneamente è stato sintetizzato il copolimero poli[(3-(6-bromoesil)]tiofene)-co-(3-[5-(4-fenossi)-10,15,20-trifenilporfirinil]esiltiofene)] (P(T6Br-co-T6TPP)) allo scopo di valutare l’effetto del diverso grado di sostituzione della catena polimerica sulle proprietà del polimero. Anch’esso è stato preparato con un metodo non regiospecifico, utilizzando la tecnica di polimerizzazione ossidativa in presenza di FeCl3. I prodotti sintetizzati sono stati caratterizzati mediante le comuni tecniche spettroscopiche (FTIR, NMR, UV-vis) e ne sono state determinate le proprietà termiche. I pesi molecolari medi e le relative distribuzioni sono stati determinati mediante cromatografia a permeazione su gel (GPC). Infine, con P(T6Br-co-T6TPP) e PT6Br sono state effettuate prove preliminari di preparazione e caratterizzazione di dispositivi per valutare la possibilità di un loro utilizzo come materiali per celle fotovoltaiche.
Resumo:
Lo scopo di questa dissertazione è quello di costruire un modello di promozione della salute nel contesto di lavoro in relazione al consumo di sostanze psicoattive fra lavoratori, attraverso il confronto tra la situazione italiana e inglese. L’ipotesi di fondo rimanda all’idea che i luoghi di lavoro possano rappresentare setting d’elezione per i progetti di prevenzione non solo perché alcuni studi dimostrano l’esistenza di fattori di rischio connessi alla mansione rispetto alle condotte relative allo stile di vita, ma anche perché il consumo di alcol e droghe è altamente diffuso tra i lavoratori e questo comporta rischi per la sicurezza e la salute personale nonché quella dei colleghi di lavoro. Si tratta quindi di indagare il rapporto tra contesto lavorativo e utilizzo di sostanze al fine di suggerire alla luce degli studi internazionali in materia e delle riflessioni condotte dai soggetti coinvolti nella ricerca che si andrà a presentare linee guida e indicazioni operative per la realizzazione di interventi di promozione alla salute nei contesti professionali. A tal fine, saranno analizzati gli esiti di 13 focus group che hanno coinvolto esperti italiani e 6 interviste somministrate a esperti inglesi volti a definire la situazione attuale in Italia e Gran Bretagna in materia di prevenzione del consumo di alcol e droghe nei luoghi di lavoro. In particolare, l’analisi verterà sulle seguenti aree: - Percezione circa la diffusione dei consumi nei luoghi di lavoro - Presentazione delle politiche adottate, in logica comparativa, tra i due paesi. - Analisi critica degli interventi e problematiche aperte. L’analisi del materiale empirico permette di delineare due modelli costruiti sulla base dei focus group e delle interviste: - in Italia si può affermare che prevalga il cd. modello della sicurezza: di recente trasformazione, questo sistema enfatizza la dimensione del controllo, tanto che si parla di sorveglianza sanitaria. É orientato alla sicurezza concepita quale rimozione dei fattori di rischio. Il consumo di sostanze (anche sporadico) è inteso quale espressione di una patologia che richiede l’intervento sanitario secondo modalità previste dal quadro normativo: una procedura che annulla la discrezionalità sia del datore di lavoro sia del medico competente. Si connota inoltre per contraddizioni interne e trasversali rispetto alle categorie lavorative (i controlli non si applicano alle professioni associate a maggiore prestigio sociale sebbene palesemente associate a rischio, come per esempio i medici) e alle sostanze (atteggiamento repressivo soprattutto verso le droghe illegali); - in Gran Bretagna, invece, il modello si configura come responsabilità bilaterale: secondo questo modello, se è vero che il datore di lavoro può decidere in merito all’attuazione di misure preventive in materia di alcol e droghe nei luoghi di lavoro, egli è ritenuto responsabile della mancata vigilanza. D’altro canto, il lavoratore che non rispetta quanto previsto nella politica scritta può essere soggetto a licenziamento per motivi disciplinari. Questo modello, particolarmente attento al consumo di tutte le sostanze psicoattive (legali e illegali), considera il consumo quale esito di una libera scelta individuale attraverso la quale il lavoratore decide di consumare alcol e droghe così come decide di dedicarsi ad altre condotte a rischio. Si propone di ri-orientare le strategie analizzate nei due paesi europei presi in esame attraverso la realizzazione di un modello della promozione della salute fondato su alcuni punti chiave: – coinvolgimento di tutti i lavoratori (e non solo coloro che svolgono mansioni a rischio per la sicurezza) al fine di promuovere benessere secondo un approccio olistico di salute, orientato ad intervenire non soltanto in materia di consumo di sostanze psicoattive (legali e illegali), ma più in generale sulle condotte a rischio; – compartecipazione nelle diverse fasi (programmazione, realizzazione e valutazione del progetto) del lavoratore, datore di lavoro e medico competente secondo una logica di flessibilità, responsabilizzazione condivisa fra i diversi attori, personalizzazione e co-gestione dell’intervento; – azione volta a promuovere i fattori di protezione agendo simultaneamente sul contrasto dei fattori di rischio (stress, alienazione, scarso riconoscimento del ruolo svolto), attraverso interventi che integrano diverse strategie operative alla luce delle evidenze scientifiche (Evidence-Based Prevention); – ricorso a strumenti di controllo (drug testing) subordinato all’esigenza di tutelare l’incolumità fisica del lavoratore e dei colleghi, da attuarsi sempre e comunque attraverso prassi che non violino la privacy e attraverso strumenti in grado di verificare l’effettivo stato di alterazione psico-fisica sul luogo di lavoro; – demedicalizzazione delle situazioni di consumo che non richiedono un intervento prettamente sanitario, ma che al contrario potrebbero essere affrontate attraverso azioni incentrate sul care anziché la cure; – messa a disposizione di servizi ad hoc con funzione di supporto, counselling, orientamento per i lavoratori, non stigmatizzanti e con operatori di formazione non solamente sanitaria, sull’esempio degli EAPs (Employee Assistence Programs) statunitensi. Si ritiene che questo modello possa trasformare i contesti di lavoro da agenzie di controllo orientate alla sicurezza a luoghi di intervento orientati al benessere attraverso un’azione sinergica e congiunta volta a promuovere i fattori di protezione a discapito di quelli di rischio in modo tale da intervenire non soltanto sul consumo di sostanze psicotrope, ma più in generale sullo stile di vita che influenza la salute complessiva.