975 resultados para Kinect, Calcolo degli Eventi, EC, ECE


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Oggetto della presente tesi di laurea è quello di analizzare sia dal punto di vista teorico che da quello pratico l’impiego di geosintetici di rinforzo per il consolidamento di rilevati e sponde arginali al fine di ottenere un sistema pluricomposto terreno-rinforzo che manifesti adeguati margini di sicurezza nei confronti delle verifiche di stabilità prescritte dalla normativa vigente, soprattutto nei confronti dell’azione indotta dal sisma. In particolare il lavoro è suddiviso di due macro parti fondamentali: una prima parte dedicata allo studio degli aspetti teorici legati alla caratterizzazione dei materiali di rinforzo con particolare riferimento ai geotessili ed alle geogriglie, ai principi fondamentali di funzionamento del sistema terreno-rinforzi, alla normativa di riferimento per tali costruzioni, al dimensionamento dei pendii in terra rinforzata ed al loro inserimento ambientale; la seconda parte, basata sullo studio di un caso di reale applicazione del metodo di rinforzo con geosintetici, si svolge attraverso una approfondita e critica analisi della relazione geologica messa a disposizione dal Comune di Cesenatico (FC) con lo scopo di elaborare le prove svolte in situ, ricavare i parametri geotecnici caratteristici del terreno e definire un modello geologico e geotecnico di riferimento per le successive elaborazioni. Il progetto prevede infatti il consolidamento delle sponde del canale che attraversa, parallelamente alla linea di costa, la città di Cesenatico (FC) e denominato “Vena Mazzarini”, dal nome dell’Ingegnere che ne curò il progetto originale. In particolare si è previsto l’impiego di geogriglie di rinforzo in HDPE e tutte le verifiche sono state realizzate mediante il software di calcolo Geostru Slope® e Slope/M.R.E® messi cordialmente a disposizione dalla software house Geostru S.r.l.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'obiettivo di questo lavoro è quello di fornire una metodologia operativa, esposta sotto forma di modello organizzativo strutturato per casi, che le aziende possono utilizzare per definire le azioni immediate di risposta da intraprendere al verificarsi di un evento informatico di sicurezza, che potrebbe trasformarsi, come vedremo, in incidente informatico di sicurezza. La strutturazione di questo modello si basa principalmente su due standard prodotti dall'ISO/IEC ed appartenenti alla famiglia 27000, che delinea il sistema di gestione della sicurezza delle informazioni in azienda e che ha come scopo principale la protezione di riservatezza, integrità e disponibilità dei dati in azienda. Il contenuto di tali standard non può però prescindere dagli ordinamenti giuridici di ogni paese in cui vengono applicati, motivo per cui all'interno del lavoro sono stati integrati i riferimenti alle normative di rilevante interesse, soprattutto quelle collegate alla privacy e ai casi presi in esame all'interno del modello sviluppato. In prima battuta vengono quindi introdotti gli standard di riferimento, illustrati all'interno del Capitolo 1, proseguendo poi con la descrizione di concetti fondamentali per la strutturazione del modello organizzativo, come sicurezza informatica, incident response e informatica forense, che vengono esposti nel Capitolo 2. Nel Capitolo 3 vengono invece descritti gli aspetti normativi in merito alla privacy dei dati aziendali, dettagliando anche le motivazioni che portano alla creazione del modello organizzativo obiettivo di questo lavoro. Nel Capitolo 4 viene illustrato il modello organizzativo proposto, che presenta una struttra per casi e contiene una analisi dei casi più rilevanti dal punto di vista del business aziendale. Infine, nel Capitolo 5 vengono descritte le caratteristiche e le funzionalità di un software sviluppato sotto forma di Windows Service, nato in seguito a delle considerazioni basate sulle analisi di rischio svolte nel Capitolo 4.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Scopo della tesi è illustrare l’evoluzione delle tecniche ecocardiografiche relativamente alla diagnosi precoce della cardiotossicità. L’elaborato espone le modalità di imaging ecocardiografico che vengono utilizzate per diagnosticare la cardiotossicità a partire dall’ecocardiografia bidimensionale, fino alle tecniche tridimensionali con acquisizione in tempo reale, attualmente in evoluzione. Si analizzano le varie tecniche diagnostiche rese disponibili dall’esame ecocardiografico: ecocardiografia a contrasto, doppler ad onda continua e pulsata e color doppler, e i metodi e le stime attraverso i quali è possibile quantificare i volumi cardiaci, indici della funzionalità del miocardio. La frazione di eiezione è infatti stata, fino ad ora, il parametro di riferimento per la verifica di lesioni cardiache riportate a seguito di terapia antitumorale. La cardiotossicità viene riscontrata per riduzioni dei valori della frazione di eiezione da ≥5% a <55% con sintomi di scompenso cardiaco e riduzione asintomatica da ≥10% al 55%. Tuttavia, l’osservazione di questo parametro, permette di quantificare il danno riportato quando ormai ha avuto ripercussioni funzionali. In campo clinico, si sta imponendo, al giorno d’oggi, l’analisi delle deformazioni cardiache per una valutazione precoce dell’insorgenza della cardiotossicità. Lo studio delle deformazioni cardiache viene effettuato tramite una nuova tecnica di imaging: l’ecocardiografia speckle tracking (STE), che consente un’analisi quantitativa e oggettiva, poiché indipendente dall’angolo di insonazione, della funzionalità miocardica sia globale sia locale, analizzando le dislocazioni spaziali degli speckles, punti generati dall’interazione tra ultrasuoni e fibre miocardiche. I parametri principali estrapolati dall’indagine sono: deformazione longitudinale, deformazione radiale e deformazione circonferenziale che descrivono la meccanica del muscolo cardiaco derivante dall’anatomia delle fibre miocardiche. La STE sviluppata inizialmente in 2D, è disponibile ora anche in 3D, permettendo la valutazione del vettore delle dislocazioni lungo le tre dimensioni e non più limitatamente ad un piano. Un confronto tra le due mostra come nella STE bidimensionale venga evidenziata una grande variabilità nella misura delle dislocazioni mentre la 3D mostra un pattern più uniforme, coerente con la normale motilità delle pareti cardiache. La valutazione della deformazione longitudinale globale (GLS), compiuta tramite ecocardiografia speckle tracking, viene riconosciuta come indice quantitativo della funzione del ventricolo sinistro le cui riduzioni sono predittive di cardiotossicità. Queste riduzioni vengono riscontrate anche per valori di frazioni di eiezione normale: ne risulta che costituiscono un più efficace e sensibile indicatore di cardiotossicità e possono essere utilizzate per la sua diagnosi precoce.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi analizza la vulnerabilità di un aggregato edilizio posto in Mirandola, studiando le vulnerabilità e i danneggiamenti sui prospetti e negli interni degli edifici.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo lavoro si analizza la soluzione individuata per la gestione dei RSU del Distretto (Caza) di Baalbek. Il progetto “Integrated Waste Management in Baalbek Caza” rientra nell'ambito del programma comunitario ENPI-Med, mirato a diffondere tecnologie ambientali pulite e innovative nelle regioni del Medio Oriente. In un’area rurale a circa 3 km dalla città di Baalbek è previsto l’insediamento di un complesso di tre impianti strettamente interconnessi, attualmente dimensionati per servire esclusivamente l’Unione Comunale del distretto di Baalbek. I tre impianti sono un Impianto per il Trattamento Meccanico Biologico dei RSU indifferenziati, una Discarica Sanitaria e un impianto pilota per la Produzione di Biogas, che insieme prendono il nome di Waste Compound. La valutazione che si svolge in questo documento mantiene un assetto multidisciplinare e multisettoriale, realizzando un’analisi economico-finanziaria sulla gestione, affiancata da una valutazione ambientale del sistema, mediante l’analisi del ciclo di vita (LCA) ed integrata infine con delle considerazioni di natura legislativa, istituzionale, politica, culturale e sociale. Inoltre una quantizzazione dei vantaggi sociali legati alla realizzazione del progetto è stata introdotta nello studio LCA inserendo alcuni indicatori sociali costruiti ad hoc.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro si propone come un’indagine sulla letteratura italiana del primo decennio del XXI secolo, in una prospettiva non di semplice ricognizione ma di individuazione di linee interpretative capaci di ripercorrere un archivio di materiali molto vasto e non ancora chiuso. La prima parte affronta questioni relative a condizioni produttive, ricezione e valutazione critica della letteratura contemporanea. Il primo capitolo è dedicato alla discussione di problemi relativi allo studio della narrativa italiana del XXI secolo a partire dalla definizione utilizzata per riferirsi ad essa, quella di “anni zero”. Il secondo capitolo situa la narrativa contemporanea nelle linee di sviluppo della letteratura italiana degli ultimi trent’anni, a partire da un mutamento del rapporto dello scrittore con la tradizione umanistica che risale all’inizio degli anni ottanta. Il terzo capitolo approfondisce uno dei generi maggiormente praticati: il romanzo storico. Considerato negli anni ottanta e novanta un genere d'evasione e intrattenimento, negli anni zero è divenuto veicolo di punti di vista critici nei confronti delle narrazioni dominanti. La seconda parte è dedicata all’approfondimento di romanzi che raccontano, da un’ottica non testimoniale, gli anni settanta italiani, periodo complesso non solo sul piano evenemenziale, ma anche su quello della rielaborazione artistica. I romanzi su cui si concentra l’indagine offrono un racconto degli anni settanta italiani a partire da un’idea di storia plurale, ricostruita attraverso una molteplicità di voci, che muta a seconda della prospettiva da cui viene affrontata. Le storie false dei romanzi sugli anni settanta non chiedono di essere lette come vere, ma dicono comunque qualcosa di vero sulle modalità attraverso le quali si va costruendo il rapporto con il passato recente, nel più ampio contesto dei percorsi della letteratura italiana di inizio millennio, tra spinte che vanno nella direzione del mantenimento dell’autonomia da parte degli autori e pressioni del mercato editoriale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro di ricerca è rivolto ad indagare l’emersione di schemi di variazione comuni all’arte e al design, limitatamente al contesto italiano e in un arco di tempo che va dalla metà degli anni Sessanta del secolo scorso a oggi. L’analisi vuole rintracciare, mediante l’applicazione della metodologia fenomenologica, un sentire condiviso tra le due discipline e, nel pieno rispetto dei relativi linguaggi e con nessuna volontà di sudditanza degli uni rispetto agli altri, individuare i rapporti di corrispondenza omologica capaci di mettere in luce lo spirito del tempo che le ha generate. La ricerca si pone l’obiettivo di estendere gli studi sul contemporaneo attraverso un’impostazione che intende applicare gli strumenti metodologici della critica d’arte all’evoluzione stilistica delle tendenze del design italiano. Non si è voluto redigere una “storia” del design italiano ma, considerata anche l’ampiezza dell’argomento, si è necessariamente proceduto a delimitare il territorio di applicazione scegliendo di prendere in considerazione il solo settore del design dell’arredo. Si è dunque optato per una visione globale delle vicende del design del prodotto, tesa ad indagare gli snodi principali, concentrando pertanto l’analisi su alcuni protagonisti della cultura del progetto, ossia su quelle figure risultate dominanti nel proprio tempo perché capaci con il loro lavoro di dare un contribuito determinante alla comprensione delle fasi evolutive del design italiano. Gli strumenti utili a condurre l’analisi provengono principalmente dalla metodologia binaria individuata dallo storico dell’arte Heinrich Wölfflin e dagli studi di Renato Barilli, il cui impianto culturologico ha fornito un indispensabile contributo al processo di sistematizzazione dei meccanismi di variazione interni alle arti; sia quelli di tipo orizzontale, di convergenza reciproca con gli altri saperi, che di tipo verticale, in rapporto cioè con le scoperte scientifiche e tecnologiche della coeva cultura materiale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La movimentazione delle materie prime, degli intermedi e dei prodotti finali all’interno di una raffineria avviene attraverso una struttura logistica che prevede la ricezione delle materie prime, i trasferimenti delle sostanze tra le diverse unità produttive, la spedizione dei prodotti finiti. La distribuzione dei fluidi avviene su vie di tubazioni (pipe rack e trincee) che si possono articolare su un’ampia porzione di territorio, in prossimità di impianti, strade ed altri centri nevralgici. La perdita di contenimento accidentale dalle tubazioni può costituire un elemento di rischio di difficile gestione, proprio per la diffusione dei percorsi su un’area di vaste dimensioni. Il presente lavoro di tesi, svolto presso lo studio ICARO s.r.l. di Cortona, si propone di effettuare l’analisi del rischio dovuto al trasferimento dei fluidi all’interno di una raffineria, valutando la frequenza e la distribuzione spaziale degli effetti degli scenari incidentali finali che possono avere luogo in caso di rilascio. Le tubazioni prese in esame sono quelle di maggior impatto dal punto di vista del rischio a causa della pericolosità della sostanza trasferita e della vicinanza del percorso a punti nevralgici all’interno dello stabilimento; sulla base di questo criterio sono state analizzate le tubazioni per il trasferimento di GPL, H2S e benzina. I risultati ottenuti consentono di identificare soluzioni per l’ottimizzazione del layout della raffineria e costituiscono, più in generale, uno strumento analitico di supporto alle modifiche progettuali. L’elaborato è strutturato come segue. Nel Capitolo 1 è riportata la descrizione della raffineria e delle linee di interconnessione selezionate ai fini dello studio. Nel Capitolo 2 vengono identificate le tipologie più rappresentative di perdita di contenimento dalle linee e ne viene stimata la frequenza di accadimento. Nel Capitolo 3 viene illustrata una metodologia per la stima della probabilità di innesco che tiene in considerazione la circolazione di automezzi nelle strade interne della raffineria. Nel Capitolo 4 vengono esaminati, confrontati e selezionati i vari tipi di modelli di rilascio presenti nel package di simulazione Phast Professional 7.1 in vista della loro applicazione alle perdite dalle linee. Nel Capitolo 5 è riportato il calcolo delle frequenze di accadimento degli scenari incidentali finali, mentre nel Capitolo 6 sono illustrati i risultati relativi alla valutazione delle conseguenze. Nel Capitolo 7 viene effettuato lo studio dell’effetto domino, sviluppato in accordo ad un approccio metodologico innovativo. Infine nel Capitolo 8 vengono riportate alcune considerazioni finali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La corretta modellizzazione della zona del riflettore dei sistemi GEN III+ è un passaggio fondamentale per un’accurata predizione dei parametri di cella il cui valore influenza direttamente la distribuzione di potenza su tutto il nocciolo. Tale esigenza si è resa ancora più stringente dopo la constatazione che il fenomeno del “tilt power” risulta essere più amplificato nei noccioli nucleari equipaggiati con un riflettore pesante. Per tali ragioni, nel presente lavoro di tesi si è dedicata particolare attenzione alle metodiche di modellizzazione ed alla generazione delle sezioni d’urto efficaci omogenee ed agli assembly discontinuity factors (ADF) nella zona di riflessione. Il codice deterministico utilizzato per il calcolo è SCALE 6.1.3. La notevole differenza nelle proprietà neutroniche associata ad un’elevata eterogeneità geometrica tra un nocciolo ed un riflettore hanno suggerito di effettuare un’analisi preliminare sul sistema riflettente GEN II proposto nel benchmark NEA-NSC-DOC (2013) per testare la capacità di SCALE 6.1.3 di effettuare un corretto calcolo di cella adottando una modellizzazione monodimensionale assembly/riflettore. I risultati ottenuti sono confrontati con quelli presentati nel benchmark e e con quelli valutati attraverso il codice Monte Carlo SERPENT 2.0 confermando la capacità di calcolo di SCALE 6.1.3. L’analisi sulla modellizzazione dei sistemi riflettenti GEN III+ è stata effettuata ricavando il valore dei parametri di cella per configurazioni omogenee ed una serie di configurazioni geometriche esatte che comprendono tutte le modellizzazioni del sistema riflettente lungo la direzione angolare del riflettore. Si è inoltre effettuata un’analisi di sensitività su parametri operativi e sui parametri di codice. Si è infine effettuato un calcolo in color-set per indagare l’influenza degli effetti 2-D sui parametri di cella. I risultati prodotti rappresentano un contributo migliorativo nella conoscenza dei parametri di cella di riflettore e potranno essere utilizzati per una più precisa valutazione del fenomeno del tilt nei sistemi GEN III+.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo elaborato si concentra sulla serie televisiva americana How I met your mother e sulla traduzione italiana dei titoli degli episodi che la compongono. In particolare, si prederanno in esame quelle proposte traduttive che non rispettano appieno le regole che governano la tipologia testuale del titolo, e verranno proposte soluzioni alternative. In seguito, si analizzeranno alcuni dei titoli appartenenti alla stagione inedita in Italia, per i quali si proporranno delle traduzioni appropriate. Al fine di rendere più concreta questa analisi, una parte della tesi verrà anche dedicata agli aspetti teorici indicati da Maurizio Viezzi riguardo alla tipologia testuale del titolo. Inoltre, si parlerà anche delle varie funzioni individuate dalla studiosa di traduzione Christiane Nord che dovrebbero generalmente regolamentare la traduzione di questo tipo di testo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uno dei più importanti campi di ricerca che coinvolge gli astrofisici è la comprensione della Struttura a Grande Scala dell'universo. I principi della Formazione delle Strutture sono ormai ben saldi, e costituiscono la base del cosiddetto "Modello Cosmologico Standard". Fino agli inizi degli anni 2000, la teoria che spiegava con successo le proprietà statistiche dell'universo era la cosiddetta "Teoria Perturbativa Standard". Attraverso simulazioni numeriche e osservazioni di qualità migliore, si è evidenziato il limite di quest'ultima teoria nel descrivere il comportamento dello spettro di potenza su scale oltre il regime lineare. Ciò spinse i teorici a trovare un nuovo approccio perturbativo, in grado di estendere la validità dei risultati analitici. In questa Tesi si discutono le teorie "Renormalized Perturbation Theory"e"Multipoint Propagator". Queste nuove teorie perturbative sono la base teorica del codice BisTeCca, un codice numerico originale che permette il calcolo dello spettro di potenza a 2 loop e del bispettro a 1 loop in ordine perturbativo. Come esempio applicativo, abbiamo utilizzato BisTeCca per l'analisi dei bispettri in modelli di universo oltre la cosmologia standard LambdaCDM, introducendo una componente di neutrini massicci. Si mostrano infine gli effetti su spettro di potenza e bispettro, ottenuti col nostro codice BisTeCca, e si confrontano modelli di universo con diverse masse di neutrini.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi si occupa dell’integrazione di misure NMR e microscopiche per la descrizione quantitativa degli effetti di stress esterni su colture cellulari. Una maggiore comprensione dei dati ricavati tramite NMR potrebbe consentire di interpretare la vitalità e funzionalità cellulare attraverso la localizzazione spaziale degli idrogeni. L'ipotesi di partenza è che la compartimentazione degli idrogeni (associati a molecole di acqua) nel citoplasma possa fornire una stima del numero di cellule vitali (e quindi in grado di mantenere l'acqua al proprio interno mediante processi attivi). I risultati NMR, prodotti dal gruppo di ricerca del Dipartimento di Fisica e Astronomia dell’Università di Bologna della Prof.ssa Fantazzini, sono stati comparati con le informazioni acquisite dal candidato tramite metodologie di conteggio cellulare (sia vive che morte) presenti in un campione sottoposto a forte e prolungato stress (assenza di terreno di coltura e di bilanciamento del sistema tampone tramite CO2 per 400 ore). Cellule da una linea di glioblastoma multiforme (T98G) mantenute in condizioni di coltura standard sono state preparate secondo lo stesso protocollo per entrambe le tecniche di indagine, e monitorate per intervalli di tempo paragonabili. Le immagini delle cellule ottenute al microscopio ottico in modalità “contrasto di fase” sono state acquisite e utilizzate per l’analisi. Una volta definito un metodo di conteggio sperimentale, è stato possibile dedurre il comportamento delle concentrazioni di cellule sopravvissute in funzione del tempo di campionamento. Da una serie ripetuta di esperimenti è stato caratterizzato un andamento nel tempo di tipo esponenziale decrescente per il numero di cellule vive, permettendo la stima della costante di decadimento in buon accordo tra i vari esperimenti. Un analogo modello esponenziale è stato utilizzato per la descrizione dell'aumento del numero di cellule morte. In questo caso, la difficoltà nell'individuare cellule morte integre (per la frammentazione delle membrane cellulari dopo la morte) ha contribuito a determinare una sistematica sottostima nei conteggi. Il confronto dei risultati NMR e microscopici indica che la diminuzione del numero di cellule vive corrisponde ad una analoga diminuzione degli H1 compartimentalizzati fino ad un tempo specifico di circa 50-60 ore in tutti gli esperimenti. Oltre questo tempo, i dati di NMR mostrano invece un incremento di H1 compartimentalizzati, quando invece il numero di cellule vive continua a diminuire in modo monotono. Per interpretare i risultati ottenuti, è stato quindi ipotizzato che, a partire da cellule morte frammentate, strutture micellari e liposomiali formate dai lipidi di membrana in soluzione possano intrappolare gli H1 liberi, aumentando il segnale di risposta della componente compartimentalizzata come evidenziato in NMR.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gli spazi di Teichmuller nacquero come risposta ad un problema posto diversi anni prima da Bernhard Riemann, che si domandò in che modo poter parametrizzare le strutture complesse supportate da una superficie fissata; in questo lavoro di tesi ci proponiamo di studiarli in maniera approfondita. Una superficie connessa, orientata e dotata di struttura complessa, prende il nome di superficie di Riemann e costituisce l’oggetto principe su cui si basa l’intero studio affrontato nelle pagine a seguire. Il teorema di uniformizzazione per le superfici di Riemann permette di fare prima distinzione netta tra esse, classificandole in superfici ellittiche, piatte o iperboliche. Due superfici di Riemann R ed S si dicono equivalenti se esiste un biolomorfismo f da R in S, e si dice che hanno la stessa struttura complessa. Certamente se le due superfici hanno genere diverso non possono essere equivalenti. Tuttavia, se R ed S sono superfci con lo stesso genere g ma non equivalenti, è comunque possibile dotare R di una struttura complessa, diversa dalla precedente, che la renda equivalente ad S. Questo permette di osservare che R è in grado di supportare diverse strutture complesse non equivalenti tra loro. Lo spazio di Teichmuller Tg di R è definito come lo spazio che parametrizza tutte le strutture complesse su R a meno di biolomorfismo. D’altra parte ogni superficie connessa, compatta e orientata di genere maggiore o uguale a 2 è in grado di supportare una struttura iperbolica. Il collegamento tra il mondo delle superfici di Riemann con quello delle superfici iperboliche è stato dato da Gauss, il quale provò che per ogni fissata superficie R le metriche iperboliche sono in corrispondenza biunivoca con le strutture complesse supportate da R stessa. Questo teorema permette di fornire una versione della definizione di Tg per superfici iperboliche; precisamente due metriche h1, h2 su R sono equivalenti se e soltanto se esiste un’isometria φ : (R, h1 ) −→ (R, h2 ) isotopa all’identità. Pertanto, grazie al risultato di Gauss, gli spazi di Teichmuller possono essere studiati sia dal punto di vista complesso, che da quello iperbolico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durante l'Impero di Caterina II di Russia, nel 1794 gli artisti, architetti, pittori, operai italiani furono invitati a fondare la città di Odessa. Avviarono un processo di colonizzazione basato sulla divulgazione della cultura italiana, della sua cucina, della sua architettura, e gettando le fondamenta per un'economia marittima e portuale basata su import-export in tutta Europa. In questa ricerca si analizzano tutti i passaggi che portarono la città sul Mar Nero ad essere considerata un centro rappresentativo di italianità e europeità.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Negli ultimi anni lo spreco alimentare ha assunto un’importanza crescente nel dibattito internazionale, politico ed accademico, nel contesto delle tematiche sulla sostenibilità dei modelli di produzione e consumo, sull’uso efficiente delle risorse e la gestione dei rifiuti. Nei prossimi anni gli Stati Membri dell’Unione Europea saranno chiamati ad adottare specifiche strategie di prevenzione degli sprechi alimentari all’interno di una cornice di riferimento comune. Tale cornice è quella che si va delineando nel corso del progetto Europeo di ricerca “FUSIONS” (7FP) che, nel 2014, ha elaborato un framework di riferimento per la definizione di “food waste” allo scopo di armonizzare le diverse metodologie di quantificazione adottate dai paesi membri. In questo scenario, ai fini della predisposizione di un Piano Nazionale di Prevenzione degli Sprechi Alimentari per l’Italia, il presente lavoro applica per la prima volta il “definitional framework” FUSIONS per l’analisi dei dati e l’identificazione dei principali flussi nei diversi anelli della filiera e svolge un estesa consultazione degli stakeholder (e della letteratura) per identificare le possibili misure di prevenzione e le priorità di azione. I risultati ottenuti evedenziano (tra le altre cose) la necessità di predisporre e promuovere a livello nazionale l’adozione di misure uniformi di quantificazione e reporting; l’importanza del coinvolgimento degli stakeholder nel contesto di una campagna nazionale di prevenzione degli sprechi alimentari; l’esigenza di garantire una adeguata copertura economica per le attività di pianificazione e implementazione delle misure di prevenzione da parte degli enti locali e di un coordinamento a livello nazionale della programmazione regionale; la necessità di una armonizzazione/semplificazione del quadro di riferimento normativo (fiscale, igienico-sanitario, procedurale) che disciplina la donazione delle eccedenze alimentari; l’urgenza di approfondire il fenomeno degli sprechi alimentari attraverso la realizzazione di studi di settore negli stadi a valle della filiera.