927 resultados para Modello ad Attori, Programmazione Concorrente, Scambio Asincrono di Messaggi, AXUM, .NET Framework
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Direito, Programa de Pós-Graduação em Direito, 2016.
Resumo:
Tutti coloro che lavorano su appuntamento hanno una clientela da gestire. Per farlo, possono avvalersi di due opzioni: o utilizzano una buona parte del loro tempo per rispondere direttamente alle chiamate e ai messaggi dei clienti, oppure assumono una persona che si faccia carico personalmente dell’agenda del negozio, piuttosto che dello studio, a seconda dei casi. Gli aspetti negativi di queste due scelte non mancano. Nel primo caso, il diretto interessato può trovarsi interrotto da una chiamata nel pieno di un appuntamento. Il cliente lì presente deve attendere pazientemente che la conversazione finisca, ma la pazienza, giustamente, inizia a vacillare nel momento in cui le chiamate diventano numerose. Oltretutto la situazione può creare disagio al professionista in prima persona. In alcuni casi, inoltre, il cliente a casa è costretto ad aspettare tempi troppo lunghi prima di ricevere una risposta. Nel secondo caso, si ha un lavoro più fluido e senza interruzioni. Questo è ovviamente un fattore positivo, tuttavia l’assunzione di un addetto a rispondere al telefono, piuttosto che a messaggi o mail, ha un costo non indifferente. Analizzando i vari vantaggi e svantaggi dei metodi di prenotazione esistenti, è stata progettata una nuova soluzione che, tramite l'utilizzo dei bot e delle app di messaggistica, permette di prendere gli appuntamenti rimanendo il più fedeli possibile ai metodi classici, come i messaggi, ma con tutti i vantaggi dei metodi più tecnologici.
Resumo:
Attualmente, la maggior parte dei dati che transitano sulla rete appartiene a contenuti multimediali. Più nello specifico, è lo Streaming Video ad avere la predominanza nella condivisione di Internet; vista la crescita che tale servizio ha subìto negli ultimi anni, si sono susseguiti diversi studi volti allo sviluppo di tecniche e metodologie che potessero migliorarlo. Una di queste è sicuramente l'Adaptive Video Streaming, tecnica utilizzata per garantire all'utente una buona Quality of Experience (QoE) mediante l'utilizzo dei cosiddetti "algoritmi di rate adaptation". Il lavoro svolto in questi studi si è voluto concentrare su due filoni distinti, ma allo stesso tempo confrontabili: la prima parte della tesi riguarda lo sviluppo e l'analisi di alcuni algoritmi di rate adaptation per DASH, mentre la seconda è relativa all'implementazione di un nuovo algoritmo che li possa affiancare, migliorando la QoE nel monitorare lo stato della connessione. Si è quindi dovuta implementare un'applicazione Android per lo streaming video, che fosse conforme allo standard MPEG-DASH e potesse fornire le informazioni di testing da utilizzare per le analisi. La tesi è suddivisa in quattro capitoli: il primo introduce l'argomento e definisce la terminologia necessaria alla comprensione degli studi; il secondo descrive alcuni dei lavori correlati allo streaming adattivo e introduce i due filoni principali della tesi, ovvero gli algoritmi di rate adaptation e la proposta di algoritmo per la selezione dinamica del segmento; il terzo presenta l'app SSDash, utilizzata come mezzo per le analisi sperimentali; infine, il quarto ed ultimo capitolo mostra i risultati delle analisi e le corrispondenti valutazioni.
Resumo:
Oslo, capitale della Norvegia, sta sperimentando un’improvvisa crescita della popolazione e secondo le stime fornite da Statistics Norway si prevede un aumento di 200 000 abitanti entro il 2040. La crescita della popolazione comporterà un rilevante aumento di domanda di acqua e, insieme ad altri fattori quali l’età delle infrastrutture e i cambiamenti climatici, sarà responsabile di una notevole pressione sulle infrastrutture idriche presenti. In risposta alla necessità di tempestivi cambiamenti, il gestore del servizio idrico della città (Oslo VAV) ha deciso di finanziare progetti per migliorare la robustezza delle infrastrutture idriche. Il lavoro di tesi si inserisce all’interno del progetto E3WDM, istituito nel 2005 con lo scopo di definire una gestione più efficiente della risorsa idrica di Oslo. L’obiettivo generale della tesi è la creazione di un modello metabolico attraverso il software UWOT (Makropoulos et al., 2008) con lo scopo di rappresentare i consumi idrici di due tipiche tipologie abitative nella città di Oslo. L’innovazione di questo studio consiste nella definizione e nella modellazione della domanda idrica all’interno delle abitazioni ad un livello di dettaglio molto elevato. Il nuovo approccio fornito da UWOT consente la simulazione di differenti strategie di intervento e la successiva gestione ottimale della risorsa idrica in grado di minimizzare i consumi di acqua, di energia e i costi, compatibilmente con la domanda idrica richiesta. Il lavoro di tesi comprende: -La descrizione del software UWOT, in particolare lo scopo del modello, l’innovativo approccio adottato, la struttura e il procedimento per creare un modello del sistema idrico urbano. -La definizione dei dati richiesti per la simulazione dei consumi idrici all’interno delle abitazioni nella città di Oslo e i metodi utilizzati per raccoglierli -L’applicazione del modello UWOT per la definizione dei trend di consumi idrici e la successiva analisi dei risultati
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
Nel sistema nervoso centrale i neuroni comunicano l'uno con l'altro attraverso le connessioni sinaptiche e sono soggetti a centinaia di stimoli, ma hanno la capacità di distinguerli l'uno dall'altro. L'abilità delle sinapsi di interpretare questi cambiamenti morfologici e biochimici è detta \textit{plasticità sinaptica} e l'obiettivo di questa tesi è proprio studiare un modello per le dinamiche di questo affascinante processo, da un punto di vista prima deterministico e poi stocastico. Infatti le reazioni che inducono la plasticità sinaptica sono ben approssimate da equazioni differenziali non lineari, ma nel caso di poche molecole bisogna tener conto delle fluttuazioni e quindi sono necessari dei metodi di analisi stocastici. Nel primo capitolo, dopo aver introdotto gli aspetti fondamentali del sistema biochimico coinvolto e dopo aver accennato ai diversi studi che hanno approcciato l'argomento, viene illustrato il modello basato sull'aggregazione delle proteine (PADP) volto a spiegare la plasticità sinaptica. Con il secondo capitolo si introducono i concetti matematici che stanno alla base dei processi stocastici, strumenti utili per studiare e descrivere la dinamica dei sistemi biochimici. Il terzo capitolo introduce una giustificazione matematica riguardo la modellizzazione in campo medio e vede una prima trattazione del modello, con relativa applicazione, sui moscerini. Successivamente si applica il modello di cui sopra ai mammiferi e se ne studia nel dettaglio la dinamica del sistema e la dipendenza dai parametri di soglia che portano alle varie transizioni di fase che coinvolgono le proteine. Infine si è voluto osservare questo sistema da un punto di vista stocastico inserendo il rumore di Wiener per poi confrontare i risultati con quelli ottenuti dall'approccio deterministico.
Resumo:
Il lavoro qui proposto si sviluppa nelle seguenti parti: una breve analisi dei fenomeni coinvolti, quali la risonanza e l'invarianza adiabatica, quindi sarà studiato il problema dell'estrazione adiabatica di un fascio mediante un modello hamiltoniano semplificato che simula l'effetto di un kick dipolare.
Resumo:
Il presente elaborato si concentra sul fenomeno dei campi di concentramento sorti in Spagna negli anni della guerra civile e della seconda guerra mondiale. Nel primo capitolo vengono brevemente delineati svolgimento e cause della guerra di Spagna, terminata con l’instaurazione della dittatura del caudillo. Nel secondo capitolo vengono descritte le caratteristiche del sistema concentrazionario franchista durante la guerra civile (con particolare attenzione ad alcuni dei campi più noti di quel periodo), nonché quelle della rieducazione politica di cui esso si riproponeva di rappresentare uno strumento. Nel terzo capitolo viene descritto il sistema concentrazionario franchista negli anni del secondo conflitto mondiale (dedicando spazio, ancora una volta, ai campi più rilevanti risalenti a quella fase). Nel quarto capitolo, infine, vengono analizzate alcune fonti letterarie relative ai campi di concentramento, prendendo in considerazione sia scritti autobiografici che opere di narrativa.
Resumo:
The period, from the Iron Age through to what is sometimes
called the Early Christian Period or the Early Middle Ages, includes
some of the most enigmatic centuries in the whole of Irish
history. In this article we intend to look at various strands of evidence
that have become available from the perspective of dendrochronology.
However, interpretation of dendrochronological
results works best when there is other information to push
against. In the case of this period one of the best sources of parallel
information – information essentially as well dated as tree
rings – has to be records of atmospheric chemistry from the ice
cores that have been drilled at several locations across Greenland.
Combining such information with evidence from tree rings,
palaeoecological research, and occasionally from history, allows
us to trace out a series of events and episodes that form the beginnings
of an understanding of this period between the Iron
Age flowering – with sites such as Emain Mache, Tara, Cruachain
– and the Early Christian flowering – widespread foundation of churches and monasteries.
Resumo:
In questo inizio di secolo, la nuova organizzazione sociale del lavoro pone una serie di domande e di sfide ai ricercatori che intendono aiutare le persone a progettare la loro vita lavorativa. Nell'era della globalizzazione anche per quanto riguarda il career counseling, abbiamo deciso di affrontare queste problematiche e di dare delle risposte che si caratterizzassero come innovative attraverso la costituzione di un forum di discussione internazionale. Si è proceduto in questo modo per evitare le difficoltà che generalmente si incontrano quando si mettono a punto dei modelli e dei metodi in un Paese e poi si esportano in altre culture con l'intento di adattarli alle stesse. Questo articolo presenta i primi risultati della collaborazione che si è registrata - un modello e dei metodi per la consulenza di orientamento. Il modello per l'intervento nell'ambito dell'approccio Life Design si caratterizza per cinque presupposti relativi al modo di vedere le persone e la loro vita lavorativa. Essi riguardano le possibilità contestuali, i processi dinamici, i progressi non-lineari, le molteplici prospettive e la presenza di pattern personali. Partendo da questi cinque presupposti abbiamo messo a punto un modello basato sull'epistemologia del costruzionismo sociale, che sostiene che la conoscenza e l'identità di un individuo sono i prodotti dell'interazione sociale e che il significato è costruito attraverso il discorso. Questo approccio fa riferimento anche alla teoria della costruzione di sé di Guichard (2005) e della costruzione della vita professionale di Savickas (2005), che descrivono le azioni utili a facilitare la progettazione del proprio futuro. Particolare attenzione viene data agli interventi nel corso dell'arco di vita, olistici, contestuali e preventivi.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Le ricerche di carattere eustatico, mareografico, climatico, archeologico e geocronologico, sviluppatesi soprattutto nell’ultimo ventennio, hanno messo in evidenza che gran parte delle piane costiere italiane risulta soggetta al rischio di allagamento per ingressione marina dovuta alla risalita relativa del livello medio del mare. Tale rischio è la conseguenza dell’interazione tra la presenza di elementi antropici e fenomeni di diversa natura, spesso difficilmente discriminabili e quantificabili, caratterizzati da magnitudo e velocità molto diverse tra loro. Tra le cause preponderanti che determinano l’ingressione marina possono essere individuati alcuni fenomeni naturali, climatici e geologici, i quali risultano fortemente influenzati dalle attività umane soprattutto a partire dal XX secolo. Tra questi si individuano: - la risalita del livello del mare, principalmente come conseguenza del superamento dell’ultimo acme glaciale e dello scioglimento delle grandi calotte continentali; - la subsidenza. Vaste porzioni delle piane costiere italiane risultano soggette a fenomeni di subsidenza. In certe zone questa assume proporzioni notevoli: per la fascia costiera emiliano-romagnola si registrano ratei compresi tra 1 e 3 cm/anno. Tale subsidenza è spesso il risultato della sovrapposizione tra fenomeni naturali (neotettonica, costipamento di sedimenti, ecc.) e fenomeni indotti dall’uomo (emungimenti delle falde idriche, sfruttamento di giacimenti metaniferi, escavazione di materiali per l’edilizia, ecc.); - terreni ad elevato contenuto organico: la presenza di depositi fortemente costipabili può causare la depressione del piano di campagna come conseguenza di abbassamenti del livello della falda superficiale (per drenaggi, opere di bonifica, emungimenti), dello sviluppo dei processi di ossidazione e decomposizione nei terreni stessi, del costipamento di questi sotto il proprio peso, della carenza di nuovi apporti solidi conseguente alla diminuita frequenza delle esondazioni dei corsi d’acqua; - morfologia: tra i fattori di rischio rientra l’assetto morfologico della piana e, in particolare il tipo di costa (lidi, spiagge, cordoni dunari in smantellamento, ecc. ), la presenza di aree depresse o comunque vicine al livello del mare (fino a 1-2 m s.l.m.), le caratteristiche dei fondali antistanti (batimetria, profilo trasversale, granulometria dei sedimenti, barre sommerse, assenza di barriere biologiche, ecc.); - stato della linea di costa in termini di processi erosivi dovuti ad attività umane (urbanizzazione del litorale, prelievo inerti, costruzione di barriere, ecc.) o alle dinamiche idro-sedimentarie naturali cui risulta soggetta (correnti litoranee, apporti di materiale, ecc. ). Scopo del presente studio è quello di valutare la probabilità di ingressione del mare nel tratto costiero emiliano-romagnolo del Lido delle Nazioni, la velocità di propagazione del fronte d’onda, facendo riferimento allo schema idraulico del crollo di una diga su letto asciutto (problema di Riemann) basato sul metodo delle caratteristiche, e di modellare la propagazione dell’inondazione nell’entroterra, conseguente all’innalzamento del medio mare . Per simulare tale processo è stato utilizzato il complesso codice di calcolo bidimensionale Mike 21. La fase iniziale di tale lavoro ha comportato la raccolta ed elaborazione mediante sistema Arcgis dei dati LIDAR ed idrografici multibeam , grazie ai quali si è provveduto a ricostruire la topo-batimetria di dettaglio della zona esaminata. Nel primo capitolo è stato sviluppato il problema del cambiamento climatico globale in atto e della conseguente variazione del livello marino che, secondo quanto riportato dall’IPCC nel rapporto del 2007, dovrebbe aumentare al 2100 mediamente tra i 28 ed i 43 cm. Nel secondo e terzo capitolo è stata effettuata un’analisi bibliografica delle metodologie per la modellazione della propagazione delle onde a fronte ripido con particolare attenzione ai fenomeni di breaching delle difese rigide ed ambientali. Sono state studiate le fenomenologie che possono inficiare la stabilità dei rilevati arginali, realizzati sia in corrispondenza dei corsi d’acqua, sia in corrispondenza del mare, a discapito della protezione idraulica del territorio ovvero dell’incolumità fisica dell’uomo e dei territori in cui esso vive e produce. In un rilevato arginale, quale che sia la causa innescante la formazione di breccia, la generazione di un’onda di piena conseguente la rottura è sempre determinata da un’azione erosiva (seepage o overtopping) esercitata dall’acqua sui materiali sciolti costituenti il corpo del rilevato. Perciò gran parte dello studio in materia di brecce arginali è incentrato sulla ricostruzione di siffatti eventi di rottura. Nel quarto capitolo è stata calcolata la probabilità, in 5 anni, di avere un allagamento nella zona di interesse e la velocità di propagazione del fronte d’onda. Inoltre è stata effettuata un’analisi delle condizioni meteo marine attuali (clima ondoso, livelli del mare e correnti) al largo della costa emiliano-romagnola, le cui problematiche e linee di intervento per la difesa sono descritte nel quinto capitolo, con particolare riferimento alla costa ferrarese, oggetto negli ultimi anni di continui interventi antropici. Introdotto il sistema Gis e le sue caratteristiche, si è passati a descrivere le varie fasi che hanno permesso di avere in output il file delle coordinate x, y, z dei punti significativi della costa, indispensabili al fine della simulazione Mike 21, le cui proprietà sono sviluppate nel sesto capitolo.
Resumo:
La dissertazione, partendo dall’analisi dei dati particolari, dei quali approfondisce il concetto e le norme previste per la disciplina del trattamento, arriva ad una completa ed approfondita analisi dei dati genetici, partendo dal loro inquadramento storico e giungendo sino ad evidenziare la simmetria intercorrente tra gli stessi e il tessuto umano (il campione biologico) che, sotto un profilo squisitamente giuridico, è stato sottoposto al medesimo regime di tutela previsto per il dato genetico. La finalità della definizione dei dati genetici è quella di individuare la loro regolamentazione nell’ambito dell’ordinamento interno nonché ad evidenziare la genesi di tale normazione e, soprattutto, la tecnica utilizzata dall’autorità preposta, che ha inteso recepire (anche se il termine, per taluni atti, è improprio) nell’ambito dell’ordinamento italiano una moltitudine di atti normativi di rango internazione e sovranazionale, succedutisi sin dagli anni immediatamente successivi la fine del secondo conflitto mondiale. Mentre la prima parte della dissertazione commenta la normativa in materia di dati particolari, la seconda parte costituisce un corpo unico finalizzato a rappresentare la doppia faccia dei dati genetici, costituita, da un lato, dalla pericolosità -per i diritti della persona- del loro trattamento e, dall’altro, dalla indispensabilità del trattamento stesso per la tutela della salute dell’uomo, come singolo e come soggetto collettivo. Il lavoro pertanto si inserisce in un contesto in cui la regolamentazione nazionale dei dati genetici pare prima di tutto finalizzata anche alla codificazione di alcune libertà fondamentali fino al 2006 di creazione squisitamente e quasi esclusivamente dottrinale, al più con qualche accenno giurisprudenziale (v. sul punto il diritto di non sapere o, anche se si ritiene che lo stesso sia di fatto stato regolamentato dal Codice in materia di protezione dei dati personali, il diritto all’autodeterminazione informativa) dei quali la tesi in commento individua la chiave regolatrice nell’ambito delle norme contenute nell’Autorizzazione del Garante. L’esame della normativa nazionale, costituita appunto dall’Autorizzazione emanata dal Garante ai sensi dell’art. 90 del Codice è pertanto svolto mediante un commento e, in alcuni punti, una critica costruttiva finalizzata ad evidenziare l’estrema difficoltà nella normazione di un trattamento che, da un lato, rischia di aggredire irrimediabilmente i diritti della persona e dall’altro è indispensabile per la tutela degli stessi.
Resumo:
L’elaborato è dedicato all’esame della forma di emanazione e del sistema d’impugnazione degli atti del CSM circa la carriera giuridica dei magistrati, con particolare attenzione alle numerose implicazioni di livello costituzionale ed amministrativo sollevate dalla problematica. I principali obiettivi perseguiti sono: a) la verifica della costituzionalità del sistema predisposto dalla legge 24 marzo 1958, n. 195, la quale stabilisce che i provvedimenti consiliari siano emanati con decreto presidenziale o ministeriale e che possano essere sindacati dai giudici amministrativi; b) l’individuazione e la risoluzione delle ambiguità interpretative e dei dubbi applicativi che sono emersi fin dall’introduzione della legge in parola e che tutt’ora continuano costantemente a riproporsi, non avendo trovato compiuta sistemazione né in dottrina né in giurisprudenza; c) la ricognizione e l’esame critico della prassi giurisprudenziale, specialmente in ordine alle decisioni più recenti, tenuto conto della mancanza di studi aggiornati in merito pur a fronte dell’ampio numero di pronunce. Sulla base dell’ipotesi di partenza dell’irrinunciabilità, per la piena comprensione della portata precettiva della legge sopra citata, di un’esaustiva analisi delle premesse teoriche necessarie per una piena comprensione dello stessa, lo svolgimento è sostanzialmente articolato in due parti fondamentali. La prima incentrata sulla ricostruzione del perimetro costituzionale dell’indagine, con specifico riferimento all’assetto costituzionale della Magistratura. La seconda, riconducibile nell’alveo proprio del “diritto amministrativo”, concernente a) il significato e la funzione da attribuire alla forma di emanazione degli atti consiliari; b) i poteri ministeriali e presidenziali nella fase di esternazione; c) la tipologia degli atti impugnabili e dei vizi sindacabili in sede giurisdizionale. Con la consapevolezza che lo sviluppo dell’argomento prescelto rappresenta un’angolazione di visuale privilegiata relativamente allo svolgersi dei rapporti tra Potere Esecutivo ed Ordine giudiziario, la tesi affronta complesse questioni di carattere generale quali il principio di separazione dei poteri, il concetto di organo costituzionale e quello di autodichìa, la nozione di autonomia pubblica, i princìpi di imparzialità ed uguaglianza. Il vaglio della giurisprudenza costituzionale ed amministrativa, ampiamente richiamata, è condotto trattando a fondo, sia aspetti connotati da un elevato tasso di tecnicità, come la disciplina del conferimento d’incarichi direttivi, sia interrogativi concernenti diversi aspetti problematici. Segnatamente, l’indagine ha riguardato – tra l’altro – l’ammissibilità del sindacato del giudice amministrativo sugli atti “amministrativi” delle autorità non incardinate nella P.A.; la compatibilità dell’interpretazione evolutiva con l’art. 138 Cost.; la definizione di atto amministrativo; la stessa nozione costituzionale di pubblica amministrazione. La presa d’atto della tendenza giurisprudenziale ad estendere il sindacato al vizio di eccesso di potere conduce infine ad alcune riflessioni conclusive in merito alla conciliabilità del ruolo assunto dal giudice amministrativo col quadro normativo delineato dai Costituenti.
Resumo:
La ricerca consiste nell’analisi degli elementi normativi che caratterizzano l’azione della Comunità in materia di alimenti. L’obiettivo è quello di verificare l’esistenza di un nucleo di principi comuni cui il legislatore comunitario si ispira nella ricerca di un equilibrio tra le esigenze di tutela della salute e quelle relative alla libera circolazione degli alimenti. Lo studio si apre con la ricostruzione storica delle principali fasi che hanno condotto alla definizione della politica comunitaria di sicurezza alimentare. Durante i primi anni del processo di integrazione europea, l’attenzione del legislatore comunitario si è concentrata sugli alimenti, esclusivamente in virtù della loro qualità di merci. La tutela della salute rimaneva nella sfera di competenza nazionale e le incursioni del legislatore comunitario in tale settore erano volte ad eliminare le divergenze normative suscettibili di rappresentare un ostacolo al commercio. Nella trattazione sono illustrati i limiti che un approccio normativo essenzialmente orientato alla realizzazione del mercato interno era in grado potenzialmente di creare sul sistema e che le vicende legate alle crisi alimentari degli anni Novanta hanno contribuito a rendere evidenti. Dall’urgenza di un coinvolgimento qualitativamente diverso della Comunità nelle tematiche alimentari, si è sviluppata progressivamente la necessità di una politica che fosse in grado di determinare un punto di equilibrio tra le esigenze di sicurezza alimentare e quelle della libera circolazione degli alimenti. Il risultato di tale processo di riflessione è stata l’adozione del Regolamento 178/2002 CE che stabilisce i principi e i requisiti generali della legislazione alimentare ed istituisce l’Autorità per la sicurezza alimentare. Nei capitoli successivi, è svolta un’analisi dettagliata delle innovazioni normative introdotte nell’ambito dell’azione comunitaria in materia di alimenti, con l’obiettivo di verificare se tale riforma abbia impresso alla formazione delle regole in materia di alimenti caratteristiche e specificità proprie. In particolare, vengono esaminate le finalità della politica alimentare comunitaria, evidenziando il ruolo centrale ormai assunto dalla tutela della salute rispetto al principio fondamentale della libera circolazione. Inoltre, l’analisi si concentra nell’identificazione del campo di applicazione materiale – la definizione di alimento – e personale – la definizione di impresa alimentare e di consumatore – della legislazione alimentare. Successivamente, l'analisi si concentra s sui principi destinati ad orientare l’attività normativa della Comunità e degli Stati membri nell’ambito del settore in precedenza individuato. Particolare attenzione viene dedicata allo studio dell’interazione tra l’attività di consulenza scientifica e la fase politico-decisionale, attraverso l’approfondimento del principio dell’analisi dei rischi, del principio di precauzione e del principio di trasparenza. Infine, l’analisi si conclude con lo studio di alcuni requisiti innovativi introdotti dal Regolamento 178 come la rintracciabilità degli alimenti, l’affermazione generale dell’esigenza di garantire la sicurezza dei prodotti e la responsabilità primaria degli operatori del settore alimentare. Il risultato del profondo ripensamento del sistema attuato con il Regolamento 178 é la progressiva individuazione di un quadro di principi e requisiti orizzontali destinati ad imprimere coerenza ed organicità all’azione della Comunità in materia di alimenti. Tale tendenza è inoltre confermata dalla giurisprudenza comunitaria che utilizza tali principi in chiave interpretativa ed analogica. Lo studio si conclude con alcune considerazioni di carattere generale, mettendo in luce la difficoltà di bilanciare le esigenze di protezione della salute con gli imperativi della libera di circolazione degli alimenti. Tale difficoltà dipende dalla natura di merce “complessa” dei prodotti alimentari nel senso che, accanto alla dimensione economica e commerciale, essi sono caratterizzati da un’importante dimensione sociale e culturale. L'indagine svolta mostra come nel settore considerato la ricerca di un equilibrio tra esigenze contrapposte ha prodotto una sostanziale centralizzazione della gestione della politica alimentare a livello europeo.