189 resultados para trasformazioni che conservano la misura teorema ergodico teorema di Birkhoff
Resumo:
L’obiettivo del lavoro consiste nell’implementare una metodologia operativa volta alla progettazione di reti di monitoraggio e di campagne di misura della qualità dell’aria con l’utilizzo del laboratorio mobile, ottimizzando le posizioni dei dispositivi di campionamento rispetto a differenti obiettivi e criteri di scelta. La revisione e l’analisi degli approcci e delle indicazioni fornite dalla normativa di riferimento e dai diversi autori di lavori scientifici ha permesso di proporre un approccio metodologico costituito da due fasi operative principali, che è stato applicato ad un caso studio rappresentato dal territorio della provincia di Ravenna. La metodologia implementata prevede l’integrazione di numerosi strumenti di supporto alla valutazione dello stato di qualità dell’aria e degli effetti che gli inquinanti atmosferici possono generare su specifici recettori sensibili (popolazione residente, vegetazione, beni materiali). In particolare, la metodologia integra approcci di disaggregazione degli inventari delle emissioni attraverso l’utilizzo di variabili proxy, strumenti modellistici per la simulazione della dispersione degli inquinanti in atmosfera ed algoritmi di allocazione degli strumenti di monitoraggio attraverso la massimizzazione (o minimizzazione) di specifiche funzioni obiettivo. La procedura di allocazione sviluppata è stata automatizzata attraverso lo sviluppo di un software che, mediante un’interfaccia grafica di interrogazione, consente di identificare delle aree ottimali per realizzare le diverse campagne di monitoraggio
Resumo:
Il continuo sdoppiamento e la riverberazione sono le matrici di sviluppo di questa tesi, in cui le ricerche di Grotowski legate al Parateatro e al Teatro delle Fonti sono indagate e interpretate a partire da un pensiero polivalente che prende avvio nella sociologia della cultura e si radica in un terreno antropologico. La ricerca si configura come un’interpretazione possibile delle scelte operate da Grotowski e, complessivamente, dal Teatro Laboratorio, nel contesto delle trasformazioni socio-culturali successive agli anni Sessanta verificando come nel periodo dal '70 all'82 le scelte stesse rispecchino i valori culturali dell’epoca.La ricerca ricorre alla categoria della “festa” - intesa come realtà quotidiana elevata alla forma rituale, attraverso gli elementi culturali e identitari del gruppo di appartenenza - e, a partire da essa, sovrappone criticamente la logica dell’“identità in performance” con la nozione di “Incontro” elaborata da Grotowski. Questa logica è, successivamente, problematizzata attraverso il “diamante culturale”, un dispositivo di analisi della sociologia della culturache, a sua volta, è discusso eridimensionato a partire dalpresuppostodi “Decostruzione” e dall’idea di “Decondizionamento”legata al lavoro del Performer, inteso come individuo.Tre immagini e un’incognita rivelano i campi d’azioneed i principi che permeano l’intera ricerca raddoppiandosi e congiungendo l’immagine del Performer come individuo riflessivo. L’immagine riflessa si configura nel contrasto fra apparenza e presenza: nella domanda posta da Grotowski “che si può fare con la propria solitudine?” si evidenzia uno dei problemi a cui deve far fronte l’individuo in una determinata struttura culturale e, al contempo, viene suggerita una possibilità di amplificazione della percezione di “se stesso” da parte dell’Attore-Performer come Individuo.
Resumo:
Il problema storico che è al centro di questo progetto di ricerca può essere così riassunto: in che modo viene selezionata la classe dirigente comunista nell’Italia repubblicana? Ovvero, detto in altri termini, in che misura le nomine dipendevano dal centro, per cooptazione, secondo la tradizione del modello di partito centralizzato, e quanto, invece, costituivano una ratifica alta di processi di selezione che si sviluppavano in periferia? Quanto contava, insomma, l’aver avuto lo scettro del comando nei territori di provenienza per ricoprire incarichi direttivi nel partito a livello nazionale? La nostra ricerca vuole quindi verificare la validità di alcuni paradigmi interpretativi, scaturiti da un’analisi complessiva della politica comunista, prendendo in esame un caso di studio locale, quello di una regione «rossa» per antonomasia come la Toscana. Tenendo conto, contestualmente, della realtà nazionale e di quella locale, cercheremo di analizzare, le ricadute che processi di portata nazionale ebbero sulla realtà locale, e in particolare, sulle modalità che regolavano la selezione della classe dirigente, dando alla ricerca un taglio prosopografico.
Resumo:
L’elaborato costituisce la fase di approfondimento conclusivo del lavoro scientifico svolto negli anni precedenti. In quest’ottica, a circa tre anni dalla sua entrata in vigore, esso risulta prevalentemente incentrato sull’analisi delle principali innovazioni imposte dalla legge 30 dicembre 2010, n . 240, recante "Norme in materia di organizzazione delle università, di personale accademico e reclutamento, nonché delega al Governo per incentivare la qualità e l'efficienza del sistema universitario", nel tentativo di individuare quali soluzioni ,più o meno differenziate in base alle specificità delle diverse realtà, gli atenei italiani abbiano prefigurato mediante la revisione dei propri statuti, organi e strutture, al fine di rispettare ed attuare il dettato legislativo e non comprimere i propri spazi di autonomia. Contemporaneamente, esso approfondisce l’orientamento della giurisprudenza amministrativa in materia, la quale proprio nel corso di quest’anno ha avuto più di un’occasione di pronunciarsi in merito, per effetto dell’impugnazione ministeriale di molti dei nuovi statuti di autonomia. Infine, non viene tralasciata l’analisi dei profili e aspetti del sistema universitario italiano non intaccati dal cambiamento, ai fini del loro coordinamento con quelli riformati, cercando di percorrere parallelamente più strade: dalla ricognizione e lo studio dei più autorevoli contributi che la dottrina ha recentemente elaborato in materia, all’inquadramento delle scelte effettuate in sede di attuazione dai singoli atenei, anche alla luce dei decreti applicativi emanati. Il tutto al fine di individuare, anche grazie a studi di tipo comparato, con particolare riferimento all’ordinamento spagnolo, nuove soluzioni per il sistema universitario che, senza la pretesa di giungere a percorsi di cambiamento validamente applicabili per tutti gli atenei, possano risultare utili alla definizione di principi e modelli base, nel pieno rispetto del dettato costituzionale e dei parametri individuati a livello europeo con il processo di Bologna e la strategia di Lisbona.
Resumo:
Lo stretch film è una diffusa applicazione per imballaggio dei film in polietilene (PE), utilizzato per proteggere diversi prodotti di vari dimensioni e pesi. Una caratteristica fondamentale del film è la sua proprietà adesiva in virtù della quale il film può essere facilmente chiuso su se stesso. Tipicamente vengono scelti gradi lineari a bassa densità (LLDPE) con valori relativamente bassi di densità a causa delle loro buone prestazioni. Il mercato basa la scelta del materiale adesivo per tentativi piuttosto che in base alla conoscenza delle caratteristiche strutturali ottimali per l’applicazione. Come per i pressure sensitive adhesives, le proprietà adesive di film stretch in PE possono essere misurati mediante "peel testing". Esistono molti metodi standard internazionali ma i risultati di tali prove sono fortemente dipendenti dalla geometria di prova, sulla possibile deformazione plastica che si verificano nel peel arm(s), e la velocità e temperatura. Lo scopo del presente lavoro è quello di misurare l'energia di adesione Gc di film stretch di PE, su se stessi e su substrati diversi, sfruttando l'interpretazione della meccanica della frattura per tener conto dell'elevata flessibilità e deformabilità di tali film. Quindi, la dipendenza velocità/temperatura di Gc sarà studiata con riferimento diretto al comportamento viscoelastico lineare dei materiali utilizzati negli strati adesivi, per esplorare le relazioni struttura-proprietà che possono mettere in luce i meccanismi molecolari coinvolti nei processi di adesione e distacco. Nella presente caso, l’adesivo non è direttamente disponibile come materiale separato che può essere messo tra due superfici di prova e misurato per la determinazione delle sue proprietà. Il presupposto principale è che una parte, o fase, della complessa struttura semi-cristallina del PE possa funzionare come adesivo, e un importante risultato di questo studio può essere una migliore identificazione e caratterizzazione di questo "fase adesiva".
Resumo:
Il presente lavoro di ricerca si focalizza sulla rappresentazione della cultura arabo-islamica, così come viene restituita nei libri di storia per la scuola secondaria di primo grado. Il fatto che il mondo di oggi è caratterizzato, ora più che mai, da continui e inevitabili incontri tra persone con multiple appartenenze esige un forte impegno volto a favorire pacifici rapporti interculturali. A tale scopo si ritiene che i contenuti dei libri di testo abbiano un ruolo molto rilevante. Di qui, uno degli obiettivi consiste nel verificare se i libri di testo veicolano un’efficace educazione alla conoscenza e al rispetto delle altre culture e religioni, all’ascolto e al dialogo interculturale; nonché al superamento dell'etnocentrismo, degli stereotipi e dei pregiudizi. Si è cercato così di verificare – nel campione dei libri di testo presi in esame – quali eventuali pregiudizi ricorrenti, stereotipi o prospettive etnocentriche vengono costruite, consolidate, reiterate e trasmesse, consapevolmente o inconsapevolmente, attraverso le affermazioni o le immagini che illustrano la cultura arabo-islamica. La prima parte della tesi, quella teorica, è dedicata all'approfondimento di due temi: il primo riguarda il rapporto Oriente-Occidente e la rappresentazione dell'altro e il secondo riguarda invece la condizione della donna musulmana tra stereotipi e realtà. La seconda parte invece, quella empirica, è dedicata principalmente all'analisi del contenuto dei testi di storia. Dall'analisi effettuata è evidente l'interesse, da parte degli autori e degli editori dei libri di testo, per il tema della cultura arabo-islamica. Nonostante ciò, si è potuto riscontrare nei libri presi in esame, sebbene in misura differente, la presenza (o compresenza) di stereotipi, generalizzazioni e informazioni parziali, imprecise o errate attorno alla cultura arabo-islamica e a chi vi appartiene.
Resumo:
Questo progetto di ricerca, è stato sviluppato per studiare le caratteristiche anatomofunzionali che definiscono l’articolazione del gomito, ed in modo articolare la presenza dell’angolazione valga che origina dalla diversa orientazione degli assi meccanici dell’avambraccio e del braccio e, denominata in letteratura come carrying angle. L’obiettivo principale di questo lavoro - meglio espresso nei diversi capitoli - è stato, quello di identificare un nuovo approccio di misura per la stima di questo angolo, utilizzabile sia per gli studi di biomeccanica articolare, che per gli studi di analisi del movimento per l’arto superiore. Il primo obiettivo è stato quello di scegliere un algoritmo di calcolo che rispettasse le caratteristiche dell’articolazione, ed in modo particolare abile a minimizzare gli errori introdotti sia nella fase di acquisizione dei punti di repere anatomici, che in quella legata alla predizione del movimento di flesso-estensione, con un modello matematico. Per questo motivo abbiamo dovuto realizzare una serie di misure in un primo tempo su due cadaveri di arto superiore, poi, seguendo le regole classiche per la validazione dell’approccio metodologico adottato, si sono realizzate misure in-vivo, prima in massima estensione e poi durante il movimento. Inizialmente abbiamo pensato di comparare le misure lineari relative alle ampiezze del braccio (ampiezza tra l’epicondilo laterale e mediale) e dell’avambraccio (ampiezza tra lo stiloide ulnare e radiale) con quelle ottenute mediante un antropometro; successivamente dopo aver verificato la ripetibilità tra i diversi operatori nell’ acquisizione dei punti di repere anatomici con il digitalizzatore Faro Arm, abbiamo comparato le misure ottenute relative al carrying angle con quelle di un goniometro standard, classicamente utilizzato nella pratica clinica per la definizione dei range di movimento dell’arto superiore. Infine, considerando la bontà delle misure ottenute, abbiamo riproposto tale metodologia con stumenti stereofotogrammetrici per l’analisi del movimento (VICON System), ottenendo la stessa stabilit`a nell’andamento del carrying angle in funzione della flessione, sia come riportato dagli studi in letteratura, sia come riscontrato nel nostro studio in-vitro. In conclusione, questo lavoro di ricerca ha evidenziato (sia per i risultati ottenuti, che per la elevata numerosità dei soggetti testati), come gli esseri umani presentino una grande variabilità individuale nel valore di questo angolo, e di come questo possa aiutare per la corretta definizione di un modello 3-D dell’arto superiore. Pertanto, gli studi futuri sulla biomeccanica dell’arto superiore dovrebbero includere sempre la valutazione di questa misura.
Resumo:
L’analisi del movimento umano ha come obiettivo la descrizione del movimento assoluto e relativo dei segmenti ossei del soggetto e, ove richiesto, dei relativi tessuti molli durante l’esecuzione di esercizi fisici. La bioingegneria mette a disposizione dell’analisi del movimento gli strumenti ed i metodi necessari per una valutazione quantitativa di efficacia, funzione e/o qualità del movimento umano, consentendo al clinico l’analisi di aspetti non individuabili con gli esami tradizionali. Tali valutazioni possono essere di ausilio all’analisi clinica di pazienti e, specialmente con riferimento a problemi ortopedici, richiedono una elevata accuratezza e precisione perché il loro uso sia valido. Il miglioramento della affidabilità dell’analisi del movimento ha quindi un impatto positivo sia sulla metodologia utilizzata, sia sulle ricadute cliniche della stessa. Per perseguire gli obiettivi scientifici descritti, è necessario effettuare una stima precisa ed accurata della posizione e orientamento nello spazio dei segmenti ossei in esame durante l’esecuzione di un qualsiasi atto motorio. Tale descrizione può essere ottenuta mediante la definizione di un modello della porzione del corpo sotto analisi e la misura di due tipi di informazione: una relativa al movimento ed una alla morfologia. L’obiettivo è quindi stimare il vettore posizione e la matrice di orientamento necessari a descrivere la collocazione nello spazio virtuale 3D di un osso utilizzando le posizioni di punti, definiti sulla superficie cutanea ottenute attraverso la stereofotogrammetria. Le traiettorie dei marker, così ottenute, vengono utilizzate per la ricostruzione della posizione e dell’orientamento istantaneo di un sistema di assi solidale con il segmento sotto esame (sistema tecnico) (Cappozzo et al. 2005). Tali traiettorie e conseguentemente i sistemi tecnici, sono affetti da due tipi di errore, uno associato allo strumento di misura e l’altro associato alla presenza di tessuti molli interposti tra osso e cute. La propagazione di quest’ultimo ai risultati finali è molto più distruttiva rispetto a quella dell’errore strumentale che è facilmente minimizzabile attraverso semplici tecniche di filtraggio (Chiari et al. 2005). In letteratura è stato evidenziato che l’errore dovuto alla deformabilità dei tessuti molli durante l’analisi del movimento umano provoca inaccuratezze tali da mettere a rischio l’utilizzabilità dei risultati. A tal proposito Andriacchi scrive: “attualmente, uno dei fattori critici che rallentano il progresso negli studi del movimento umano è la misura del movimento scheletrico partendo dai marcatori posti sulla cute” (Andriacchi et al. 2000). Relativamente alla morfologia, essa può essere acquisita, ad esempio, attraverso l’utilizzazione di tecniche per bioimmagini. Queste vengono fornite con riferimento a sistemi di assi locali in generale diversi dai sistemi tecnici. Per integrare i dati relativi al movimento con i dati morfologici occorre determinare l’operatore che consente la trasformazione tra questi due sistemi di assi (matrice di registrazione) e di conseguenza è fondamentale l’individuazione di particolari terne di riferimento, dette terne anatomiche. L’identificazione di queste terne richiede la localizzazione sul segmento osseo di particolari punti notevoli, detti repere anatomici, rispetto ad un sistema di riferimento solidale con l’osso sotto esame. Tale operazione prende il nome di calibrazione anatomica. Nella maggior parte dei laboratori di analisi del movimento viene implementata una calibrazione anatomica a “bassa risoluzione” che prevede la descrizione della morfologia dell’osso a partire dall’informazione relativa alla posizione di alcuni repere corrispondenti a prominenze ossee individuabili tramite palpazione. Attraverso la stereofotogrammetria è quindi possibile registrare la posizione di questi repere rispetto ad un sistema tecnico. Un diverso approccio di calibrazione anatomica può essere realizzato avvalendosi delle tecniche ad “alta risoluzione”, ovvero attraverso l’uso di bioimmagini. In questo caso è necessario disporre di una rappresentazione digitale dell’osso in un sistema di riferimento morfologico e localizzare i repere d’interesse attraverso palpazione in ambiente virtuale (Benedetti et al. 1994 ; Van Sint Jan et al. 2002; Van Sint Jan et al. 2003). Un simile approccio è difficilmente applicabile nella maggior parte dei laboratori di analisi del movimento, in quanto normalmente non si dispone della strumentazione necessaria per ottenere le bioimmagini; inoltre è noto che tale strumentazione in alcuni casi può essere invasiva. Per entrambe le calibrazioni anatomiche rimane da tenere in considerazione che, generalmente, i repere anatomici sono dei punti definiti arbitrariamente all’interno di un’area più vasta e irregolare che i manuali di anatomia definiscono essere il repere anatomico. L’identificazione dei repere attraverso una loro descrizione verbale è quindi povera in precisione e la difficoltà nella loro identificazione tramite palpazione manuale, a causa della presenza dei tessuti molli interposti, genera errori sia in precisione che in accuratezza. Tali errori si propagano alla stima della cinematica e della dinamica articolare (Ramakrishnan et al. 1991; Della Croce et al. 1999). Della Croce (Della Croce et al. 1999) ha inoltre evidenziato che gli errori che influenzano la collocazione nello spazio delle terne anatomiche non dipendono soltanto dalla precisione con cui vengono identificati i repere anatomici, ma anche dalle regole che si utilizzano per definire le terne. E’ infine necessario evidenziare che la palpazione manuale richiede tempo e può essere effettuata esclusivamente da personale altamente specializzato, risultando quindi molto onerosa (Simon 2004). La presente tesi prende lo spunto dai problemi sopra elencati e ha come obiettivo quello di migliorare la qualità delle informazioni necessarie alla ricostruzione della cinematica 3D dei segmenti ossei in esame affrontando i problemi posti dall’artefatto di tessuto molle e le limitazioni intrinseche nelle attuali procedure di calibrazione anatomica. I problemi sono stati affrontati sia mediante procedure di elaborazione dei dati, sia apportando modifiche ai protocolli sperimentali che consentano di conseguire tale obiettivo. Per quanto riguarda l’artefatto da tessuto molle, si è affrontato l’obiettivo di sviluppare un metodo di stima che fosse specifico per il soggetto e per l’atto motorio in esame e, conseguentemente, di elaborare un metodo che ne consentisse la minimizzazione. Il metodo di stima è non invasivo, non impone restrizione al movimento dei tessuti molli, utilizza la sola misura stereofotogrammetrica ed è basato sul principio della media correlata. Le prestazioni del metodo sono state valutate su dati ottenuti mediante una misura 3D stereofotogrammetrica e fluoroscopica sincrona (Stagni et al. 2005), (Stagni et al. 2005). La coerenza dei risultati raggiunti attraverso i due differenti metodi permette di considerare ragionevoli le stime dell’artefatto ottenute con il nuovo metodo. Tale metodo fornisce informazioni sull’artefatto di pelle in differenti porzioni della coscia del soggetto e durante diversi compiti motori, può quindi essere utilizzato come base per un piazzamento ottimo dei marcatori. Lo si è quindi utilizzato come punto di partenza per elaborare un metodo di compensazione dell’errore dovuto all’artefatto di pelle che lo modella come combinazione lineare degli angoli articolari di anca e ginocchio. Il metodo di compensazione è stato validato attraverso una procedura di simulazione sviluppata ad-hoc. Relativamente alla calibrazione anatomica si è ritenuto prioritario affrontare il problema associato all’identificazione dei repere anatomici perseguendo i seguenti obiettivi: 1. migliorare la precisione nell’identificazione dei repere e, di conseguenza, la ripetibilità dell’identificazione delle terne anatomiche e della cinematica articolare, 2. diminuire il tempo richiesto, 3. permettere che la procedura di identificazione possa essere eseguita anche da personale non specializzato. Il perseguimento di tali obiettivi ha portato alla implementazione dei seguenti metodi: • Inizialmente è stata sviluppata una procedura di palpazione virtuale automatica. Dato un osso digitale, la procedura identifica automaticamente i punti di repere più significativi, nella maniera più precisa possibile e senza l'ausilio di un operatore esperto, sulla base delle informazioni ricavabili da un osso digitale di riferimento (template), preliminarmente palpato manualmente. • E’ stato poi condotto uno studio volto ad indagare i fattori metodologici che influenzano le prestazioni del metodo funzionale nell’individuazione del centro articolare d’anca, come prerequisito fondamentale per migliorare la procedura di calibrazione anatomica. A tale scopo sono stati confrontati diversi algoritmi, diversi cluster di marcatori ed è stata valutata la prestazione del metodo in presenza di compensazione dell’artefatto di pelle. • E’stato infine proposto un metodo alternativo di calibrazione anatomica basato sull’individuazione di un insieme di punti non etichettati, giacenti sulla superficie dell’osso e ricostruiti rispetto ad un TF (UP-CAST). A partire dalla posizione di questi punti, misurati su pelvi coscia e gamba, la morfologia del relativo segmento osseo è stata stimata senza identificare i repere, bensì effettuando un’operazione di matching dei punti misurati con un modello digitale dell’osso in esame. La procedura di individuazione dei punti è stata eseguita da personale non specializzato nell’individuazione dei repere anatomici. Ai soggetti in esame è stato richiesto di effettuare dei cicli di cammino in modo tale da poter indagare gli effetti della nuova procedura di calibrazione anatomica sulla determinazione della cinematica articolare. I risultati ottenuti hanno mostrato, per quel che riguarda la identificazione dei repere, che il metodo proposto migliora sia la precisione inter- che intraoperatore, rispetto alla palpazione convenzionale (Della Croce et al. 1999). E’ stato inoltre riscontrato un notevole miglioramento, rispetto ad altri protocolli (Charlton et al. 2004; Schwartz et al. 2004), nella ripetibilità della cinematica 3D di anca e ginocchio. Bisogna inoltre evidenziare che il protocollo è stato applicato da operatori non specializzati nell’identificazione dei repere anatomici. Grazie a questo miglioramento, la presenza di diversi operatori nel laboratorio non genera una riduzione di ripetibilità. Infine, il tempo richiesto per la procedura è drasticamente diminuito. Per una analisi che include la pelvi e i due arti inferiori, ad esempio, l’identificazione dei 16 repere caratteristici usando la calibrazione convenzionale richiede circa 15 minuti, mentre col nuovo metodo tra i 5 e i 10 minuti.
Resumo:
PREMESSA: La progressione della recidiva d’epatite C è accelerata nei pazienti sottoposti a trapianto di fegato e ciò ha portato alla necessità di sviluppare nuove e validate metodiche non invasive per la quantificazione e la misura della fibrosi epatica. SCOPI: Stabilire l’efficacia dell’elastometria epatica (Fibroscan®) e dei parametri sierici di fibrosi, attualmente disponibili nella pratica clinica, per predire il grado di fibrosi nei pazienti sottoposti a trapianto epatico. METODI: La correlazione fra fibrosi epatica, determinata mediante biopsia epatica ed esame istologico, e Fibroscan® o indici clinico-sierologici di fibrosi (Benlloch, Apri, Forns, Fibrotest and Doppler resistance index), è stata studiata in pazienti che avevano ricevuto un trapianto ortotopico di fegato con evidenza di recidiva d’epatite da HCV. Un totale di 36 pazienti, con la seguente classificazione istologica: fibrosi secondom METAVIR F1=24, F2=8, F3=3, F4=1, sono stati arruolati nella popolazione oggetto di studio. Un totale di 29 individui volontari sani sono serviti come controllo. Le differenze fra gli stadi di fibrosi sono state calcolate mediante analisi statistica non parametrica. Il miglior cut-off per la differenziazione di fibrosi significativa (F2-F4) è stato identificato mediante l’analisi delle curve ROC. RISULTATI: La rigidità epatica ha presentato valori di 4.4 KPa (2.7-6.9) nei controlli (mediane e ranges), con valori in tutti i soggeti <7.0 KPa; 7.75 KPa (4.2-28.0) negli F1; 16.95 KPa (10.2-31.6) negli F2; 21.10 KPa nell’unico paziente F4 cirrotico. Le differenze sono state statisticamente significative per i soggetti controllo versus F1 e F2 (p<0.0001) e per F1 versus F2 (p<0.0001). Un cut-off elastografico di 11.2 KPagarantisce 88% di Sensibilità, 90% di Specificità, 79% di PPV e 95% di NPV nel differenziare i soggetti F1 dagli F2-F4. Le AUROC, relativamente alla capacità di discriminare fra i differenti gradi di fibrosi, evidenziavano un netto vantaggio per il Fibroscan® rispetto ad ognuno degli indici non invasivi di fibrosi. CONCLUSIONI: L’elastometria epatica presenta una buona accuratezza diagnostica nell’identificare pazienti con fibrosi epatica di grado significativo, superiore a quella di tutti gli altri test non invasivi al momento disponibili nella clinica, nei pazienti portatori di trapianto epatico ortotopico da cadavere con recidiva di HCV.
Resumo:
Negli ultimi anni la longevità è divenuto un argomento di notevole interesse in diversi settori scientifici. Le ricerche volte ad indagare i meccanismi che regolano i fattori della longevità si sono moltiplicate nell’ultimo periodo interessando, in maniera diversa, alcune regioni del territorio italiano. Lo studio presentato nella tesi ha l’obiettivo di identificare eventuali aggregazioni territoriali caratterizzate da una significativa propensione alla longevità nella regione Emilia-Romagna mediante l’impiego di metodologie di clustering spaziale, alcune delle quali di recente implementazione. La popolazione in esame è costituita dagli individui residenti in Emilia- Romagna nel quinquennio 2000-2004 suddivisa in classi di età, sesso e comune. L’analisi è di tipo puramente spaziale, in cui l’unità geografica elementare è identificata dal comune, ed è stata condotta separatamente per i due sessi. L’identificazione delle aree regionali ad elevata longevità è avvenuta utilizzando quattro metodologie di clustering spaziale, basate sulla teoria della massima verosimiglianza, che si differenziano tra loro per la modalità di ricerca dei potenziali clusters. La differenza consiste nella capacità di identificare aggregazioni territoriali di forma regolare (spatial scan statistic, Kulldorff e Nagarwalla,1995; Kulldorff,1997, 1999) o dall’andamento geometrico “libero” (flexible scan statistic, Tango e Takahashi,2005; algoritmo genetico, Duczmal et al.,2007; greedy growth search, Yiannakoulias et al.,2007). Le caratteristiche di ciascuna metodologia consentono, in tal modo, di “catturare” le possibili conformazioni geografiche delle aggregazioni presenti sul territorio e la teoria statistica di base, comune ad esse, consente di effettuare agevolmente un confronto tra i risultati ottenuti. La persistenza di un’area caratterizzata da un’elevata propensione alla longevità consente, infatti, di ritenere il cluster identificato di notevole interesse per approfondimenti successivi. Il criterio utilizzato per la valutazione della persistenza di un cluster è stato derivato dalla teoria dei grafi, con particolare riferimento ai multigrafi. L’idea è confrontare, a parità di parametri di ricerca, i grafi associati alle aggregazioni spaziali identificate con le diverse metodologie attraverso una valutazione delle occorrenze dei collegamenti esistenti tra le coppie di vertici. Alcune valutazioni di carattere demografico ed un esame della letteratura esistente sugli studi di longevità, hanno indotto alla definizione di una classe (aperta) di età per rappresentare il fenomeno nella nostra ricerca: sono stati considerati gli individui con età superiore o uguale a 95 anni (indicata con 95+). La misura di sintesi utilizzata per descrivere il fenomeno è un indicatore specifico di longevità, mutuato dalla demografia, indicato con Centenarian Rate (CR) (Robine e Caselli, 2005). Esso è definito dal rapporto tra la popolazione 95+ e la popolazione residente, nello stesso comune, al censimento del 1961. L’idea alla base del CR è confrontare gli individui longevi di un istante temporale con quelli presenti, nella stessa area, circa 40 anni prima dell’osservazione, ipotizzando che l’effetto migratorio di una popolazione possa ritenersi trascurabile oltre i 60 anni di età. La propensione alla longevità coinvolge in maniera diversa le aree del territorio dell’Emilia-Romagna. Le province della regione caratterizzate da una maggiore longevità sono Bologna, Ravenna e parte di Forlì-Cesena mentre la provincia di Ferrara si distingue per un livello ridotto del fenomeno. La distinzione per sesso non appare netta: gli uomini con età 95+, numericamente inferiori alle donne, risiedono principalmente nei comuni delle province di Bologna e Ravenna, con qualche estensione nel territorio forlivese, analogamente a quanto accade per la popolazione femminile che mostra, tuttavia, una maggiore prevalenza nei territori di Bologna e Forlì-Cesena, includendo alcune aree del riminese. Le province occidentali della regione, invece, non risultano interessate significativamente da questo fenomeno. Le metodologie di cluster detection utilizzate nello studio hanno prodotto risultati pressoché simili seppur con criteri di ricerca differenti. La spatial scan statistic si conferma una metodologia efficace e veloce ma il vincolo geometrico regolare imposto al cluster condiziona il suo utilizzo, rivelando una scarsa adattabilità nell’identificazione di aggregazioni irregolari. La metodologia FSC ha evidenziato buone capacità di ricerca e velocità di esecuzione, completata da una descrizione chiara e dettagliata dei risultati e dalla possibilità di poter visualizzare graficamente i clusters finali, anche se con un livello minimo di dettaglio. Il limite principale della metodologia è la dimensione ridotta del cluster finale: l’eccessivo impegno computazionale richiesto dalla procedura induce a fissare il limite massimo al di sotto delle 30 aree, rendendola così utilizzabile solo nelle indagini in cui si ipotizza un’estensione limitata del fenomeno sul territorio. L’algoritmo genetico GA si rivela efficace nell’identificazione di clusters di qualsiasi forma ed estensione, seppur con una velocità di esecuzione inferiore rispetto alle procedure finora descritte. Senza un’adeguata selezione dei parametri di ricerca,la procedura può individuare clusters molto irregolari ed estesi, consigliando l’uso di penalizzazione non nulla in fase di ricerca. La scelta dei parametri di ricerca non è comunque agevole ed immediata e, spesso, è lasciata all’esperienza del ricercatore. Questo modo di procedere, in aggiunta alla mancanza di informazioni a priori sul fenomeno, aumenta il grado di soggettività introdotto nella selezione dei parametri influenzando i risultati finali. Infine, la metodologia GGS richiede un carico computazionale nettamente superiore rispetto a quello necessario per le altre metodologie utilizzate e l’introduzione di due parametri di controllo favorisce una maggiore arbitrarietà nella selezione dei valori di ricerca adeguati; inoltre, la recente implementazione della procedura e la mancanza di studi su dati reali inducono ad effettuare un numero maggiore di prove durante la fase di ricerca dei clusters.
Resumo:
Introduzione L’importanza clinica, sociale ed economica del trattamento dell’ipertensione arteriosa richiede la messa in opera di strumenti di monitoraggio dell’uso dei farmaci antiipertensivi che consentano di verificare la trasferibilità alla pratica clinica dei dati ottenuti nelle sperimentazioni. L’attuazione di una adatta strategia terapeutica non è un fenomeno semplice da realizzare perché le condizioni in cui opera il Medico di Medicina Generale sono profondamente differenti da quelle che si predispongono nell’esecuzione degli studi randomizzati e controllati. Emerge, pertanto, la necessità di conoscere le modalità con cui le evidenze scientifiche trovano reale applicazione nella pratica clinica routinaria, identificando quei fattori di disturbo che, nei contesti reali, limitano l’efficacia e l’appropriatezza clinica. Nell’ambito della terapia farmacologica antiipertensiva, uno di questi fattori di disturbo è costituito dalla ridotta aderenza al trattamento. Su questo tema, recenti studi osservazionali hanno individuato le caratteristiche del paziente associate a bassi livelli di compliance; altri hanno focalizzato l’attenzione sulle caratteristiche del medico e sulla sua capacità di comunicare ai propri assistiti l’importanza del trattamento farmacologico. Dalle attuali evidenze scientifiche, tuttavia, non emerge con chiarezza il peso relativo dei due diversi attori, paziente e medico, nel determinare i livelli di compliance nel trattamento delle patologie croniche. Obiettivi Gli obiettivi principali di questo lavoro sono: 1) valutare quanta parte della variabilità totale è attribuibile al livello-paziente e quanta parte della variabilità è attribuibile al livello-medico; 2) spiegare la variabilità totale in funzione delle caratteristiche del paziente e in funzione delle caratteristiche del medico. Materiale e metodi Un gruppo di Medici di Medicina Generale che dipendono dall’Azienda Unità Sanitaria Locale di Ravenna si è volontariamente proposto di partecipare allo studio. Sono stati arruolati tutti i pazienti che presentavano almeno una misurazione di pressione arteriosa nel periodo compreso fra il 01/01/1997 e il 31/12/2002. A partire dalla prima prescrizione di farmaci antiipertensivi successiva o coincidente alla data di arruolamento, gli assistiti sono stati osservati per 365 giorni al fine di misurare la persistenza in trattamento. La durata del trattamento antiipertensivo è stata calcolata come segue: giorni intercorsi tra la prima e l’ultima prescrizione + proiezione, stimata sulla base delle Dosi Definite Giornaliere, dell’ultima prescrizione. Sono stati definiti persistenti i soggetti che presentavano una durata del trattamento maggiore di 273 giorni. Analisi statistica I dati utilizzati per questo lavoro presentano una struttura gerarchica nella quale i pazienti risultano “annidati” all’interno dei propri Medici di Medicina Generale. In questo contesto, le osservazioni individuali non sono del tutto indipendenti poiché i pazienti iscritti allo stesso Medico di Medicina Generale tenderanno ad essere tra loro simili a causa della “storia comune” che condividono. I test statistici tradizionali sono fortemente basati sull’assunto di indipendenza tra le osservazioni. Se questa ipotesi risulta violata, le stime degli errori standard prodotte dai test statistici convenzionali sono troppo piccole e, di conseguenza, i risultati che si ottengono appaiono “impropriamente” significativi. Al fine di gestire la non indipendenza delle osservazioni, valutare simultaneamente variabili che “provengono” da diversi livelli della gerarchia e al fine di stimare le componenti della varianza per i due livelli del sistema, la persistenza in trattamento antiipertensivo è stata analizzata attraverso modelli lineari generalizzati multilivello e attraverso modelli per l’analisi della sopravvivenza con effetti casuali (shared frailties model). Discussione dei risultati I risultati di questo studio mostrano che il 19% dei trattati con antiipertensivi ha interrotto la terapia farmacologica durante i 365 giorni di follow-up. Nei nuovi trattati, la percentuale di interruzione terapeutica ammontava al 28%. Le caratteristiche-paziente individuate dall’analisi multilivello indicano come la probabilità di interrompere il trattamento sia più elevata nei soggetti che presentano una situazione clinica generale migliore (giovane età, assenza di trattamenti concomitanti, bassi livelli di pressione arteriosa diastolica). Questi soggetti, oltre a non essere abituati ad assumere altre terapie croniche, percepiscono in minor misura i potenziali benefici del trattamento antiipertensivo e tenderanno a interrompere la terapia farmacologica alla comparsa dei primi effetti collaterali. Il modello ha inoltre evidenziato come i nuovi trattati presentino una più elevata probabilità di interruzione terapeutica, verosimilmente spiegata dalla difficoltà di abituarsi all’assunzione cronica del farmaco in una fase di assestamento della terapia in cui i principi attivi di prima scelta potrebbero non adattarsi pienamente, in termini di tollerabilità, alle caratteristiche del paziente. Anche la classe di farmaco di prima scelta riveste un ruolo essenziale nella determinazione dei livelli di compliance. Il fenomeno è probabilmente legato ai diversi profili di tollerabilità delle numerose alternative terapeutiche. L’appropriato riconoscimento dei predittori-paziente di discontinuità (risk profiling) e la loro valutazione globale nella pratica clinica quotidiana potrebbe contribuire a migliorare il rapporto medico-paziente e incrementare i livelli di compliance al trattamento. L’analisi delle componenti della varianza ha evidenziato come il 18% della variabilità nella persistenza in trattamento antiipertensivo sia attribuibile al livello Medico di Medicina Generale. Controllando per le differenze demografiche e cliniche tra gli assistiti dei diversi medici, la quota di variabilità attribuibile al livello medico risultava pari al 13%. La capacità empatica dei prescrittori nel comunicare ai propri pazienti l’importanza della terapia farmacologica riveste un ruolo importante nel determinare i livelli di compliance al trattamento. La crescente presenza, nella formazione dei medici, di corsi di carattere psicologico finalizzati a migliorare il rapporto medico-paziente potrebbe, inoltre, spiegare la relazione inversa, particolarmente evidente nella sottoanalisi effettuata sui nuovi trattati, tra età del medico e persistenza in trattamento. La proporzione non trascurabile di variabilità spiegata dalla struttura in gruppi degli assistiti evidenzia l’opportunità e la necessità di investire nella formazione dei Medici di Medicina Generale con l’obiettivo di sensibilizzare ed “educare” i medici alla motivazione ma anche al monitoraggio dei soggetti trattati, alla sistematica valutazione in pratica clinica dei predittori-paziente di discontinuità e a un appropriato utilizzo della classe di farmaco di prima scelta. Limiti dello studio Uno dei possibili limiti di questo studio risiede nella ridotta rappresentatività del campione di medici (la partecipazione al progetto era su base volontaria) e di pazienti (la presenza di almeno una misurazione di pressione arteriosa, dettata dai criteri di arruolamento, potrebbe aver distorto il campione analizzato, selezionando i pazienti che si recano dal proprio medico con maggior frequenza). Questo potrebbe spiegare la minore incidenza di interruzioni terapeutiche rispetto a studi condotti, nella stessa area geografica, mediante database amministrativi di popolazione. Conclusioni L’analisi dei dati contenuti nei database della medicina generale ha consentito di valutare l’impiego dei farmaci antiipertensivi nella pratica clinica e di stabilire la necessità di porre una maggiore attenzione nella pianificazione e nell’ottenimento dell’obiettivo che il trattamento si prefigge. Alla luce dei risultati emersi da questa valutazione, sarebbe di grande utilità la conduzione di ulteriori studi osservazionali volti a sostenere il progressivo miglioramento della gestione e del trattamento dei pazienti a rischio cardiovascolare nell’ambito della medicina generale.
Resumo:
La famiglia rappresenta un micro sistema all’interno del macro sistema società, che vive, si riproduce, rimane in equilibrio o cade in situazioni di squilibrio, implode e si rigenera, attraverso gli infiniti feedback comunicativi con l’ambiente esterno. I suoi componenti sono i medium di tale processo interattivo. Quindi: tutti gli eventi all’interno del nucleo familiare, compreso il conflitto, non possono considerarsi slegati dalla società circostante. La famiglia possiede una dimensione politica che si esplicita nella distribuzione di potere fra i suoi componenti. Tale distribuzione può assumere sia forme democratiche, che dispotiche. A forme di distribuzione del potere non democratiche si associano livelli elevati di conflitto. Quest’ultimo, tuttavia, è una dimensione inevitabile delle associazioni umane. Ciò che distingue le relazioni – familiari e non – non è tanto la presenza o assenza del conflitto, quanto piuttosto la modalità di espressione e di gestione di tale conflittualità. In tal senso, infatti, l’antagonismo relazionale si può tradurre in aggressione e violenza, prevaricazione, lesione della integrità e della libertà, oppure divenire occasione di crescita, di confronto, di mediazione e di negoziazione. La ricerca svolta all’interno del Dottorato in Criminologia dell’ Università di Bologna è finalizzata, attraverso un’integrazione teorica, ad individuare le variabili intervenienti nel contesto e nell’esperienza dei conflitti violenti in ambito di coppia, per accertare il loro eventuale ruolo predittivo del fenomeno. In particolare, s’indagano le modalità attraverso le quali la condizione socio-strutturale dei partner di coppia e la costruzione sociale dei ruoli di genere - con la relativa attribuzione di potere – e le condizioni lavorative, interagiscono nell’ espressione violenta della conflittualità. Il collettivo di riferimento - individuato grazie alla collaborazione di associazioni del privato sociale e di istituzioni pubbliche presenti e operanti nel territorio della Provincia di Trento eroganti prestazioni eterogenee alle famiglie - è composto da coppie sposate/conviventi alle quali è stato somministrato un questionario strutturato.
Resumo:
La tesi di dottorato di Carlo Antonio Gobbato prende in considerazione e sviluppa, secondo una prospettiva rigorosamente sociologica, i temi e i problemi che discendono dai progressi delle bioscienze e delle biotecnologie con particolare riferimento alla programmazione degli esseri umani con precise caratteristiche. Muovendo dalla riflessione di Jurgen Habermas sui caratteri della genetica liberale, sono stati, innanzi tutto, ripresi alcuni temi fondamentali della storia del pensiero politico e giuridico sviluppatisi in età moderna, considerando con particolare attenzione la ricostruzione epistemologica operata da Michel Foucault in merito alla nozione di biopolitica, ovvero sia al modo con cui si è cercato, a partire dal XVIII secolo, di razionalizzare i problemi posti dalla pratica governamentale nei confronti delle persone (pratiche concernenti la salute, il controllo sociale, l’igiene, la mortalità, le razze, ecc.). La biopolitica è una categoria gnoseologica di spiegazione dell’idea di sviluppo presente nell’età moderna, dove sono iscritti vari saperi e pratiche governamentali, risultando così un concetto storicamente determinato da costruzioni produttive e tecnologiche che consentono, oppure obbligano, la vita ad entrare nella storia. D’altra parte, la biopolitica non produce letteralmente la vita, ma interviene direttamente sulla vita consentendone le condizioni di mantenimento e sviluppo. Se la biopolitica ha determinato l’instaurazione del dominio della specie umana sulla materia inerte, la rivoluzione scientifica in atto, anche in ragione dell’intensità con cui procede lo sviluppo delle bioscienze e delle biotecnologie, sta determinando l’affermazione del dominio sulla materia vivente Il progressivo affrancamento delle bioscienze e delle biotecnologie dal sistema sociale e dal sotto sistema sanitario sta comportando un’intensa proliferazione legislativa e normativa di cui la bioetica è parte, assieme alla costituzione ed allo sviluppo di un polo di apparati tendenzialmente autonomo, anche in ragione delle grandi quantità di trasferimenti finanziari, pubblici e privati, specificatamente dedicati e del nuovo mercato dei brevetti sulla vita. Sono evidenti le preoccupazioni degli organismi internazionali e nazionali, ai loro massimi livelli, per un fenomeno emergente, reso possibile dai rapidi progressi delle bioscienze, che consente la messa a disposizione sul mercato globale di “prodotti” ricavati dal corpo umano impossibili da reperire se tali progressi non si fossero verificati. Si tratta di situazioni che formano una realtà giuridica, sociale e mercantile che sempre più le bioscienze contribuiscono, con i loro successi, a rappresentare e costruire, anche se una parte fondamentale nell’edificazione, cognitiva ed emozionale, di tali situazioni, che interagiscono direttamente con l’immaginario soggettivo e sociale, è costituita dal sistema dell’informazione, specializzata e non, che sta con intensità crescente offrendo notizie e riproduzioni, vere o verosimili, scientificamente fondate oppure solo al momento ipotizzate, ma poste e dibattute, che stanno oggettivamente alimentando nuove attese individuali e sociali in grado di generare propensioni e comportamenti verso “oggetti di consumo” non conosciuti solo fino a pochi anni fa. Propensioni e comportamenti che possono assumere, in ragione della velocità con cui si succedono le scoperte delle bioscienze e la frequenza con cui sono immessi nel mercato i prodotti biotecnologici (indipendentemente dalla loro vera o presunta efficacia), anche caratteri di effervescenza anomica, fino alla consumazione di atti gravemente delittuosi di cui la stessa cronaca e le inchieste giudiziarie che si stanno aprendo iniziano a dare conto. La tesi considera criticamente la nuova realtà che emerge dai progressi delle bioscienze e, dopo aver identificato nella semantica dell’immunità e nel dominio sul movimento del corpo gli orientamenti concettuali che forniscono il significato essenziale alla biopolitica di Foucault, cerca di definire secondo una prospettiva propriamente sociologica la linea di separazione fra le pratiche immunitarie ed altre pratiche che non possono essere fatte rientrare nelle prime o, anche, il limite del discorso di Foucault davanti alle questioni poste da Habermas ed inerenti la programmazione genetica degli esseri viventi. Le pratiche genetiche, infatti, non sono propriamente immunitarie e, anzi, la stessa logica discorsiva intorno al gene non ha carattere immunitario, anche se può apportare benefici immunitari. La logica del gene modifica la forma del corpo, è generativa e rigenerativa, può ammettere ed includere, ma anche negare, la semantica biopolitica, i suoi oggetti e i suoi nessi. Gli oggetti della biopolitica sono ogni giorno di più affiancati dagli oggetti di questa dimensione radicalmente originale, per significati e significanti, dimensione che, con un neologismo, si può definire polisgenetica, ovvero sia una pratica governamentale sui generis, con importanti riflessi sul piano socio – criminologico. L’ultima parte della tesi riporta i risultati di recenti ricerche sociologiche sulla percezione sociale dell’ingegneria genetica e delle biotecnologie, nonché presenta i risultati dell’elaborazione delle interviste effettuate per la tesi di ricerca.
Resumo:
Il tema di ricerca sul Segretariato Generale della Presidenza del Consiglio dei Ministri si colloca su di un terreno che potremmo definire, genericamente, giuspubblicistico, posto al confine tra il diritto costituzionale ed il diritto amministrativo. Tale visione sistematica trae fondamento alla apparente vocazione del Segretariato, di soggetto istituzionale dalla doppia attitudine: da un lato, infatti, è preposto alla traduzione - in termini strettamente operativi - dell’indirizzo politico governativo e dall’altro svolge un’attività di monitoraggio e di raccolta di informazioni generali necessarie per il migliore svolgimento dell’azione governativa. Pertanto, per l’inquadramento e l’analisi delle differenti problematiche che avvolgono l’istituto sono state recuperate, per i profili d’interesse, diverse categorie giuridiche, alcune di stampo marcatamente costituzionalistico (a titolo esemplificativo, la funzione, l’indirizzo politico, il rapporto di fiducia, la posizione costituzionale del Presidente del Consiglio, dei Ministri e del Consiglio dei Ministri, categorie cui è stata aggiunta, per alcuni aspetti, la disciplina elettorale e, in particolare, la stessa formula elettorale, suscettibile di apportare una spiccata “mobilità decisionale” tra i diversi organi di cui si compone il Governo), accostate ad altre di specifico interesse amministrativistico (il coordinamento, l’atto politico, l’atto di alta amministrazione, la direzione, le strutture in cui si dipana l’organizzazione, l’azione amministrativa, la gestione finanziaria). Lo sviluppo del tema è proposto, in via preliminare, facendo riferimento all’inquadramento generale dell’istituto, attraverso l’esame della genesi e dello sviluppo della struttura burocratica oggetto dello studio, tenendo conto della versatilità operativa, sia sul versante strutturale, sia funzionale, dimostrata nel corso degli decenni di storia costituzionale del Paese, spesso costellata da avvenimenti politici e sociali controversi e, a volte, non privi di accadimenti drammatici. La dottrina non ha dedicato specifici studi ma si è occupata dell’argomento in via incidentale, nell’ambito di trattazioni di più ampio respiro dedicate alla funzione di governo nelle sue varie “declinazioni”, legando “a doppio filo” il Segretariato Generale della Presidenza del Consiglio al Presidente del Consiglio soprattutto nella misura in cui afferma che il Segretariato è struttura meramente servente del premier di cui sembrerebbe condividerne le sorti specie con riferimento alla conformazione strutturale e funzionale direttamente collegata alla maggiore o minore espansione dei suoi poteri (reali) di coordinamento e di direzione della compagine governativa, ponendo in secondo piano le funzioni “di continuità” istituzionale e di servizio al cittadino che pure sono assolte dall’organo. Ciò premesso, si è tentato di fornire una visione generale del Segretariato nella sua dimensione ordinamentale ed operativa, attraverso la ricognizione, scomposizione e ricomposizione delle sue numerose attribuzioni per saggiare il suo reale natura giuridica. In conclusione, anche a fronte della posizione netta della giurisprudenza, si è optato per ritenere che il Segretariato generale della Presidenza del Consiglio dei ministri sia attratto tra gli organi amministrativi.
Resumo:
La ricerca consiste nell’analisi degli elementi normativi che caratterizzano l’azione della Comunità in materia di alimenti. L’obiettivo è quello di verificare l’esistenza di un nucleo di principi comuni cui il legislatore comunitario si ispira nella ricerca di un equilibrio tra le esigenze di tutela della salute e quelle relative alla libera circolazione degli alimenti. Lo studio si apre con la ricostruzione storica delle principali fasi che hanno condotto alla definizione della politica comunitaria di sicurezza alimentare. Durante i primi anni del processo di integrazione europea, l’attenzione del legislatore comunitario si è concentrata sugli alimenti, esclusivamente in virtù della loro qualità di merci. La tutela della salute rimaneva nella sfera di competenza nazionale e le incursioni del legislatore comunitario in tale settore erano volte ad eliminare le divergenze normative suscettibili di rappresentare un ostacolo al commercio. Nella trattazione sono illustrati i limiti che un approccio normativo essenzialmente orientato alla realizzazione del mercato interno era in grado potenzialmente di creare sul sistema e che le vicende legate alle crisi alimentari degli anni Novanta hanno contribuito a rendere evidenti. Dall’urgenza di un coinvolgimento qualitativamente diverso della Comunità nelle tematiche alimentari, si è sviluppata progressivamente la necessità di una politica che fosse in grado di determinare un punto di equilibrio tra le esigenze di sicurezza alimentare e quelle della libera circolazione degli alimenti. Il risultato di tale processo di riflessione è stata l’adozione del Regolamento 178/2002 CE che stabilisce i principi e i requisiti generali della legislazione alimentare ed istituisce l’Autorità per la sicurezza alimentare. Nei capitoli successivi, è svolta un’analisi dettagliata delle innovazioni normative introdotte nell’ambito dell’azione comunitaria in materia di alimenti, con l’obiettivo di verificare se tale riforma abbia impresso alla formazione delle regole in materia di alimenti caratteristiche e specificità proprie. In particolare, vengono esaminate le finalità della politica alimentare comunitaria, evidenziando il ruolo centrale ormai assunto dalla tutela della salute rispetto al principio fondamentale della libera circolazione. Inoltre, l’analisi si concentra nell’identificazione del campo di applicazione materiale – la definizione di alimento – e personale – la definizione di impresa alimentare e di consumatore – della legislazione alimentare. Successivamente, l'analisi si concentra s sui principi destinati ad orientare l’attività normativa della Comunità e degli Stati membri nell’ambito del settore in precedenza individuato. Particolare attenzione viene dedicata allo studio dell’interazione tra l’attività di consulenza scientifica e la fase politico-decisionale, attraverso l’approfondimento del principio dell’analisi dei rischi, del principio di precauzione e del principio di trasparenza. Infine, l’analisi si conclude con lo studio di alcuni requisiti innovativi introdotti dal Regolamento 178 come la rintracciabilità degli alimenti, l’affermazione generale dell’esigenza di garantire la sicurezza dei prodotti e la responsabilità primaria degli operatori del settore alimentare. Il risultato del profondo ripensamento del sistema attuato con il Regolamento 178 é la progressiva individuazione di un quadro di principi e requisiti orizzontali destinati ad imprimere coerenza ed organicità all’azione della Comunità in materia di alimenti. Tale tendenza è inoltre confermata dalla giurisprudenza comunitaria che utilizza tali principi in chiave interpretativa ed analogica. Lo studio si conclude con alcune considerazioni di carattere generale, mettendo in luce la difficoltà di bilanciare le esigenze di protezione della salute con gli imperativi della libera di circolazione degli alimenti. Tale difficoltà dipende dalla natura di merce “complessa” dei prodotti alimentari nel senso che, accanto alla dimensione economica e commerciale, essi sono caratterizzati da un’importante dimensione sociale e culturale. L'indagine svolta mostra come nel settore considerato la ricerca di un equilibrio tra esigenze contrapposte ha prodotto una sostanziale centralizzazione della gestione della politica alimentare a livello europeo.