866 resultados para cio
Resumo:
Alcune osservazioni sperimentali portano ad affermare che la maggior parte della massa dell'universo è costituita da un tipo di materia definita oscura, cioè materia che interagisce solo gravitazionalmente e debolmente. I candidati più promettenti sono tipicamente identificati con le WIMP (Weakly Interacting Massive Particle). L'esperimento XENON1T per la rivelazione di materia oscura, in fase di costruzione nei Laboratori Nazionali del Gran Sasso, sfrutta uno spessore di 1.4 km di roccia schermante. Il rivelatore è una Time Projection Chamber contenente circa 2 tonnellate di xeno e avrà sensibilità per sezioni d’urto WIMP-nucleo spin-indipendent pari a circa 2x10-47 cm2 (per WIMP di massa 50 GeV/c2), due ordini di grandezza al di sotto degli attuali limiti. Per raggiungere tale sensibilità la TPC sarà inserita in una tank cilindrica riempita di acqua ultrapura, che fungerà sia da schermo passivo contro la radiazione esterna (gamma e neutroni di bassa energia), sia da veto per i muoni cosmici. I muoni possono infatti produrre neutroni di energia tale da raggiungere la TPC e simulare segnali tipici delle WIMP. Essi sono identificati per via della radiazione Cherenkov, emessa in seguito al loro passaggio in acqua, rivelata per mezzo di 84 fotomoltiplicatori (PMT) 8'' Hamamatsu R5912ASSY HQE. Lo studio delle prestazioni e delle caratteristiche dei PMT utilizzati nel sistema di veto di muoni sono lo scopo di questo lavoro di tesi. In particolare è stato preparato un opportuno setup per i test dei fotomoltiplicatori e sono state effettuate misure di guadagno, dark rate ed afterpulse. In una prima fase sono stati testati in aria 50 PMT presso la Sezione INFN di Bologna, nel periodo compreso tra Novembre 2012 e Marzo 2013 ed in una seconda fase sono stati testati in acqua 90 PMT presso i Laboratori Nazionali del Gran Sasso, nel periodo compreso tra Aprile e Settembre 2013.
Resumo:
Le caratteristiche del 99mTc e la possibilità per gli ospedali di produrlo in loco quotidianamente grazie ai generatori, hanno reso questo radioisotopo il più utilizzato della fisica medica: è richiesto in circa l’80% delle procedure di medicina nucleare con circa 7 milioni di somministrazioni all’anno in Europa e 8 milioni negli USA. Inoltre il campo di applicabilità del 99mTc è molto vasto: viene infatti utilizzato per scintigrafie ossee, epatiche, renali, celebrali, tiroidee e per il controllo della funzionalità epatica. A causa del notevole incremento dell’insorgenza di patologie oncologiche e dell’aumento della popolazione, la richiesta di 99mTc è sempre cresciuta negli anni ed è ancora destinata a crescere nei prossimi; l’unico fattore attenuante è lo sviluppo di altre tecniche di diagnostica funzionale come la PET ( Positron Emission Tomography ). Nonostante la creazione del 99mTc da generatori di 99Mo sia ancora oggi il metodo di produzione più efficiente, si sta ponendo recentemente la necessità di ricercare nuove tecniche di produzione dell’isotopo per soddisfare le grandi quantità richieste dal mercato globale. Questo accade perché malgrado l’utilizzo del 99mTc sia in forte crescita, la produzione di 99Mo è destinata a diminuire in quanto necessita di reattori nucleari: gli ingenti costi delle moderne centrali e le elevate quantità di scorie prodotte, stanno guidando la politica mondiale verso una denuclearizzazione che renderà in pochi anni impossibile soddisfare la richiesta di 99Mo della medicina nucleare. Questo lavoro di tesi si colloca in questo contesto, cioè nella ricerca di un metodo alternativo per la produzione di 99mTc: l’irraggiamento con protoni di un target di 100Mo arricchito, in un ciclotrone ad uso medicale. L’obbiettivo che si vuole raggiungere è fornire una stima attendibile su tale produzione, valutare la qualità dell’isotopo e mettere in luce eventuali problematiche riscontrabili.
Resumo:
La RNA interference è un processo attraverso il quale alcuni piccoli frammenti di RNA (19-25 nucleotidi) sono in grado di silenziare l'espressione genica. La sua scoperta, nel 1998, ha rivoluzionato le concezioni della biologia molecolare, minando le basi del cosiddetto Dogma Centrale. Si è visto che la RNAi riveste ruoli fondamentali in meccanismi di regolazione genica, nello spegnimento dell'espressione e funziona come meccanismo di difesa innata contro varie tipologie di virus. Proprio a causa di queste implicazioni richiama interesse non solo dal punto di vista scientifico, ma anche da quello medico, in quanto potrebbe essere impiegata per lo sviluppo di nuove cure. Nonostante la scoperta di tale azione desti la curiosità e l'interesse di molti, i vari processi coinvolti, soprattutto a livello molecolare, non sono ancora chiari. In questo lavoro si propongono i metodi di analisi di dati di un esperimento prodotto dall'Istituto di Biologia molecolare e cellulare di Strasburgo. Nell'esperimento in questione vengono studiate le funzioni che l'enzima Dicer-2 ha nel pathway - cioè la catena di reazioni biomolecolari - della RNA interference durante un'infezione virale nel moscerino della frutta Drosophila Melanogaster. Per comprendere in che modo Dicer-2 intervenga nel silenziamento bisogna capire in quali casi e quali parti di RNA vengono silenziate, a seconda del diverso tipo di mutazione dell'enzima stesso. Dunque è necessario sequenziare l'RNA nelle diverse condizioni sperimentali, ottenendo così i dati da analizzare. Parte dei metodi statistici che verranno proposti risultano poco convenzionali, come conseguenza della peculiarità e della difficoltà dei quesiti che l'esperimento mette in luce. Siccome le tematiche affrontate richiedono un approccio sempre più interdisciplinare, è aumentata considerevolmente la richiesta di esperti di altri settori scientifici come matematici, informatici, fisici, statistici e ingegneri. Questa collaborazione, grazie a una diversità di approccio ai problemi, può fornire nuovi strumenti di comprensione in ambiti che, fino a poco tempo fa, rientravano unicamente nella sfera di competenza dei biologi.
Resumo:
La mia sperimentazione si inserisce in un progetto di respiro nazionale- “AGER-STAY FRESH”- volto a trovare soluzioni di lavaggio alternative al cloro per il prolungamento della shelf-life delle produzioni di IV gamma. Questi prodotti rappresentano, attualmente, uno dei più promettenti ed innovativi comparti del settore ortofrutticolo e sono definiti, secondo le norme della Comunità Europea, prodotti minimamente trasformati, cioè soggetti a interventi tecnologici ridotti, ed utilizzabili per il consumo diretto senza ulteriori manipolazioni, o con manipolazioni minime. La loro espansione sul mercato deriva dal fatto che sono in grado di offrire alta convenienza, alto valore nutrizionale ed organolettico e sono concepiti dai consumatori come prodotti “genuini” in quanto a base vegetale e, generalmente, non contengono sostanze antimicrobiche. Tuttavia, le materie prime vegetali utilizzate per le produzioni di IV gamma sono spesso caratterizzate da elevate contaminazioni microbiche (4-6 log UFC/g) poiché, durante la crescita o il post-raccolta, frutti o vegetali vengono a contatto con il suolo, insetti o contaminazioni di origine umana.Al momento la shelf-life e la sicurezza d’uso di questa categoria di prodotti sono basate principalmente sul mantenimento della catena del freddo unitamente alla fase di lavaggio delle materie prime con sostanze clorate. Recentemente, però, alcuni autori hanno evidenziato alcuni svantaggi derivanti da questa fase di processo come la formazione di composti clorati cancerogeni. In questa prospettiva, il principale obiettivo di questo lavoro di tesi è stato quello di valutare gli effetti di olio essenziale di cedro e alcuni composti bioattivi degli oli essenziali (citrale, esanale, trans-2-esenale e carvacrolo), utilizzati singolarmente o in combinazione, sulla shelf-life di mele affettate di IV gamma. Su tutti i prodotti sono state eseguite analisi microbiologiche, di texture e colore. Un ulteriore obiettivo di questo lavoro sperimentale è stato quello di ottimizzare alcuni parametri di processo come la riduzione del rapporto acqua di lavaggio/prodotto ed incrementare la temperatura dell’acqua utilizzata al fine di meglio solubilizzare gli antimicrobici in fase di dipping.
Resumo:
In questo lavoro di tesi sono stati confrontati diversi protocolli per la purificazione della proteina CRM197 mediante cromatografia di affinità a cationi divalenti. Il CRM197 è una variante della tossina difterica caratterizzata da stessa massa molecolare e struttura. A causa di un’unica mutazione (G52E), tale variante è atossica e presenta numerose applicazioni in campo farmaceutico (in particolare nella preparazione di vaccini coniugati). Fino ad ora, per la produzione del CRM197 è stato utilizzato il ceppo originale di derivazione, cioè Corynebacterium diphteriae, e la produzione eterologa nel batterio Escherichia coli ha mostrato notevoli difficoltà. In particolare, mentre è stato possibile definire un valido protocollo di sovraespressione e di estrazione proteica, le fasi successive di purificazione e di refolding (rinaturazione) sono ancora problematiche e causano basse rese finali, ostacolando le prospettive di scale-up su scala industriale. Il CRM197, infatti, per le sue caratteristiche strutturali, come l’elevata percentuale di amminoacidi idrofobici e la presenza di foglietti β esposti al solvente, è suscettibile alla formazione di aggregati insolubili che impone, lungo tutto il processo, il controllo delle interazioni idrofobiche (con agenti denaturanti e/o detergenti). In un precedente lavoro di tesi, è stato sviluppato un protocollo valido per ottenere un’elevata espressione proteica intracellulare. Il primo passaggio di purificazione prevede una cromatografia di affinità su colonna che viene sfruttata anche per eseguire il refolding proteico. Tuttavia, durante la messa a punto di tale processo, sono stati osservati evidenti fenomeni di aggregazione della proteina, oltre all’instaurarsi di legami aspecifici proteina-proteina o proteina-resina cromatografica. In questo lavoro di tesi sono state affrontate alcune problematiche legate a tale passaggio di purificazione per cercare di individuare le condizioni ottimali per ottenere il CRM197 in forma nativa e biologicamente attiva.
Resumo:
La maggior parte dei corpi celesti che popolano l’universo emette “luce”. Ciò significa che essi sono visibili dai nostri occhi quando li alziamo sul cielo notturno o al limite, se troppo lontani, da potenti telescopi ottici. Questa luminosità ha nella maggior parte dei casi un’origine termonucleare, dovuta cioè alla presenza di sorgenti come le stelle, in cui l’elevata temperatura interna legata alle reazioni di fusione che le mantengono in vita produce una radiazione di corpo nero in banda ottica. Tuttavia, dato che la parte visibile costituisce solo una minuscola porzione dell’intero spettro elettromagnetico, andando ad indagare emissioni a differenti frequenze come il radio, l’infrarosso, l’ultravioletto, X e gamma, si rileva la presenza un’altra categoria di oggetti dalle caratteristiche peculiari che li rendono un affascinante campo di studio per molteplici ragioni: i Nuclei Galattici Attivi (AGN) (figura 1). Sono abbastanza rari (costituiscono meno dell’1% del totale rispetto alle normali galassie) e dalla vita breve, spesso molto lontani e potenti, ferventi di un’intensa attività che sembra crescere col redshift; si ipotizza perciò che siano giovani e che ci aprano una finestra sul momento successivo al collasso iniziale proprio della vita di ogni galassia, rivelandosi fondamentali per elaborare eventuali teorie cosmologiche. Inoltre, sebbene spesso ospiti di galassie visibili anche in ottico, i loro meccanismi di emissione e gli speciali comportamenti necessitano di analisi e spiegazioni totalmente differenti. Particolare è anche il metodo di rilevamento: per coprire infatti queste determinate frequenze è stata sviluppata una tecnica innovativa capace di dare ottimi risultati, perfino migliori di quelli dei telescopi tradizionali, l’interferometria radio. La tesi si divide in due parti: la prima delinea un ritratto degli AGN, la seconda analizza il flusso proveniente dalla radiogalassia 3C 84 a 15.4 e 43 GHz e ipotizza un possibile sito di origine dell’aumento di brillanza osservato.
Resumo:
Questa tesi di laurea tratta delle partizioni di un intero positivo. La tesi viene suddivisa in tre capitoli: nel primo capitolo definirò cosa significa scomporre additivamente un intero positivo e come si può rappresentare una partizione cioè utilizzando diagrammi, chiamati \textit{diagrammi di Ferrers}, o tabelle, chiamate \textit{tableau di Young}, si possono rappresentare graficamente partizioni. In seguito, in questo capitolo, verrà definita la funzione di partizione e, infine, tratterò delle partizioni ordinate. Il secondo capitolo ha carattere storico: infatti, mostra come cinque famosi matematici, Eulero, Ramanujan e Hardy, Hans Rademacher e Ken Ono, nel tempo abbiano affrontato il problema di trovare una formula matematica che meglio rappresenti la funzione di partizione. Il terzo ed ultimo capitolo riguarda le applicazioni delle partizioni, cioè come esse abbiano una relazione con le classi di coniugio nel gruppo simmetrico $S_{n}$ e con le classificazioni dei gruppi abeliani di ordine $p^{n}$, con p un numero primo. Di alcune affermazioni ( o teoremi ) nei capitoli seguenti non è stata riportata la dimostrazione; in questi casi si rimanda direttamente alle corrispondenti citazioni bibliografiche.
Resumo:
A successful interaction with objects in the environment requires integrating information concerning object-location with the shape, dimension and position of body parts in space. The former information is coded in a multisensory representation of the space around the body, i.e. peripersonal space (PPS), whereas the latter is enabled by an online, constantly updated, action-orientated multisensory representation of the body (BR) that is critical for action. One of the critical features of these representations is that both PPS and BR are not fixed, but they dynamically change depending on different types of experience. In a series of experiment, I studied plastic properties of PPS and BR in humans. I have developed a series of methods to measure the boundaries of PPS representation (Chapter 4), to study its neural correlates (Chapter 3) and to assess BRs. These tasks have been used to study changes in PPS and BR following tool-use (Chapter 5), multisensory stimulation (Chapter 6), amputation and prosthesis implantation (Chapter 7) or social interaction (Chapter 8). I found that changes in the function (tool-use) and the structure (amputation and prosthesis implantation) of the physical body elongate or shrink both PPS and BR. Social context and social interaction also shape PPS representation. Such high degree of plasticity suggests that our sense of body in space is not given at once, but it is constantly constructed and adapted through experience.
Resumo:
L’idea alla base della tesi è quella di sfruttare l’espressività di rappresentazione grafica della libreria D3 per mettere a punto un’applicazione web che dia la possibilità all’utente di creare dei grafici interattivi in maniera semplice e automatica. A tal proposito, si è subito considerato il dominio dell’applicazione, rappresentato dai dati da visualizzare in forma grafica, in modo da sviluppare un prodotto che, a differenza degli altri generatori di grafici, permetta l’elaborazione dei dataset reali, quelli cioè pubblicati sul web dai vari enti specializzati; un’applicazione che quindi indipendentemente dalla forma in cui i dati si presentano, riesca a rappresentarne il contenuto.
Resumo:
La presente indagine mira ad esaminare, in chiave innovativa, i rapporti tra l’Europa ed un reato prettamente europeo: il negazionismo. Sviluppatosi in maniera assolutamente predominante nel nostro continente, le ragioni della sua diffusione sono molteplici. Al di là della lotta a razzismo ed antisemitismo, il motivo principale va identificato nel ruolo “fondativo” che riveste la memoria dell’Olocausto in Europa, collocata nel cuore dell’universo valoriale su cui si reggono i due principali attori europei, ovverosia l’Unione europea e la Corte europea dei diritti dell’uomo. La ricerca, dunque, ruota attorno a due poli tematici. Da un lato, sono state esaminate le politiche normative dell’Unione europea in materia di razzismo e xenofobia, entro cui spicca la promozione dell’incriminazione del negazionismo “allargato”, cioè esteso alle condotte di negazione non solo dell’Olocausto, ma anche degli altri crimini internazionali. Dall’altro lato, l’analisi della trentennale giurisprudenza della Corte di Strasburgo in materia ha evidenziato come, con riguardo alle manifestazioni negazioniste, sia stato elaborato uno “statuto speciale”, che si risolve nel perentorio diniego di tutela per questa categoria di opinioni, sottratte a monte all’ordinario giudizio di bilanciamento in quanto giudicate incompatibili con i valori sottesi alla CEDU. Lo scopo di questo lavoro riposa nel tentativo di individuare le interazioni tra questi due sistemi istituzionali, per interpretare una tendenza che converge con nettezza verso un incremento della repressione penale della parola. Da questo complesso intreccio di norme e principi, di hard law e soft law, sarà possibile enucleare la natura giuridica ed il contenuto delle richieste di incriminazione rivolte agli Stati membri. Una volta appurato che agli Stati è concesso di restringere il campo di applicazione del reato di negazionismo, adottando degli indici di pericolosità delle condotte, sarà analizzata la tenuta di questi “elementi opzionali del reato” alla luce dei principi penalistici di tassatività, materialità, offensività e laicità.
Resumo:
Il presente lavoro mette in luce i diversi aspetti che ruotano intorno all’istituzione del rogo, cioè la condanna di un eretico alle fiamme e la conseguente morte per vivicombustione, che arrivò a imporsi nella procedura inquisitoriale come punizione ultima e unica nei casi di eresia. La prima parte del lavoro è dedicata ai fondamenti giuridici che caratterizzano questa pena. L’attenzione è rivolta poi alla letteratura controversistica di parte cattolica, usata dalla Chiesa a difesa della legittima occisio degli eretici. La parte centrale dello studio riguarda l’aspetto storico con una recensio dei principali roghi avvenuti prima e dopo la nascita dell’Inquisizione. Infine la riflessione si sposta sulla scelta e il significato di tale pena da un punto di vista antropologico.
Resumo:
Da oltre mezzo secolo i parchi di divertimento sono strutture complesse e altamente organizzate, entro cui si muovono migliaia di persone quotidianamente; in cui l'elettrificazione, la manutenzione, la sicurezza (sia come safety sia come security) non possono essere lasciate all'improvvisazione. Fra i diversi modelli matematici con cui è possibile rappresentare un parco di divertimenti i grafi si adattano bene a rappresentare l'organizzazione "geografica" delle attrazioni e dei sentieri che le collegano. Fortunatamente la teoria dei grafi si presta anche molto bene all'impostazione e risoluzione dei problemi di ottimizzazione, fornendo quindi uno strumento privilegiato per miglioramenti strutturali nella direzione sia del risparmio economico, sia della fruizione ottimale delle strutture. In questa tesi ho analizzato un aspetto particolare dei grafi associati a quattro parchi d'attrazione: le distanze reciproche tra attrazioni e in particolare la collocazione dei "centri", cioè di vertici del grafo per cui la massima distanza da altri vertici sia minima. I calcoli sono stati eseguiti adattando un'implementazione esistente in Matlab dell'algoritmo di Dijkstra, utilizzando in ingresso le matrici di adiacenza dei grafi. Dopo un capitolo dedicato ai richiami essenziali di teoria dei grafi, il capitolo due traccia una breve storia dei parchi d'attrazione concentrandosi sui quattro che sono l'oggetto di questo studio. Il terzo capitolo, fulcro teorico della tesi, descrive la sperimentazione riportata nel capitolo quattro.
Resumo:
L’idea da cui nasce questa tesi è quella di introdurre in Blender un Add-on in linguaggio Python che permetta di applicare alcune deformazioni di tipo surface-based a mesh poligonali. Questa tipologia di deformazioni rappresentano l’alternativa alle deformazioni di mesh poligonali tramite rigging ( cioè l’aggiunta di uno scheletro per controllare e per animare la mesh) e caging (cioè l’utilizzo di una struttura di controllo di tipo reticolare che propaga la sua deformazione su un oggetto in essa immerso), che di solito sono le prescelte in computer animation e in modellazione. Entrambe le deformazioni indicate sono già estremamente radicate in Blender, prova ne è il fatto che esiste più di un modificatore che le implementa, già integrato in codice nativo. Si introduce inizialmente la tecnica di deformazione di mesh poligonali tramite elasticità discreta, che è stata realizzata, quindi, presenteremo diverse metodologie di deformazione. Illustreremo poi come modellare, creare ed editare delle mesh in Blender. Non ci soffermeremo su dettagli puramente dettati dall’interfaccia utente, cercheremo invece di addentrarci nei concetti e nelle strutture teoriche, allo scopo di avere le basi logiche per definire una Add-on che risulti veramente efficace e utile all’interno del sistema di modellazione. Approfondiremo la struttura di due modificatori chiave per la deformazioni di mesh : Lattice Modifier e Mesh Deform Modifier che implementano una metodologia di tipo space-based. Infine ci concentreremo sulla parte di scripting Python in Blender. Daremo un’idea delle strutture dati, dei metodi e delle funzioni da utilizzare per interagire con l’ambiente circostante, con i singoli oggetti ed in particolare con le Mesh e daremo un esempio di script Python. Andremo infine a descrivere l’implementazione della deformazione elastica mediante add-on Python in Blender.
Resumo:
In Sicilia lo strumento principale che ha caratterizzato le modalità d’intervento dei poteri pubblici in economia è stato quello della partecipazione diretta o indiretta, quello cioè della Regione che si propone come ente fautore del sostegno allo sviluppo dell’industria e successivamente come soggetto imprenditore. Le formule organizzative attraverso le quali si è concretizzato l’intervento regionale in economia furono la società per azioni a partecipazione regionale, l’azienda autonoma regionale e l’ente pubblico regionale1. La storia dello sviluppo economico siciliano nel secondo dopoguerra conferma come il ricorso allo strumento dell’ente pubblico economico sia stato molto frequente nella realtà locale come, peraltro, anche in altre Regioni d’Italia. Tracce, queste, di una vicenda storica che intuiamo subito avere complesse implicazioni tali da generare la necessità di interrogarsi sul modo nel quale le istituzioni politiche hanno influito sulle dinamiche economiche siciliane nel secondo dopoguerra; per quanto noti e approfonditi siano stati infatti gli elementi caratterizzanti e i percorsi peculiari dello sviluppo economico siciliano, rimangono scarsamente approfonditi il tenore dei rapporti e i nessi politici, istituzionali ed economici tra centro e periferia, in altre parole rimane ancora parzialmente inesplorata quella parte dell’indagine inerente l’evoluzione dei processi di industrializzazione della Sicilia nel secondo dopoguerra attuata parallelamente dalle autorità regionali e dallo Stato attraverso i loro enti e strumenti. È lecito chiedersi quali siano stati i tempi, le modalità, gli ostacoli e gli eventuali risultati delle azioni di pianificazione intraprese dai poteri pubblici centrali e regionali nella prospettiva dello sviluppo economico del territorio; il coordinamento delle azioni di promozione del progresso industriale si presentava in tal senso, sin dall’inizio, come una delle sfide fondamentali per un adeguato e consistente rilancio economico delle aree più arretrate del Mezzogiorno italiano; ecco che lo studio dei provvedimenti legislativi emanati rappresenta un approfondimento indispensabile e obiettivo primario di questo lavoro.
Resumo:
Ci rendiamo conto del valore dell’acqua solamente quando scarseggia. Fino ad oggi il problema poteva sembrare limitato ai Paesi più poveri di tale risorsa, ma le cose potrebbero cambiare perché l’acqua “di qualità” – ossia dolce e non inquinata – rappresenta solo una minima percentuale delle nostre riserve. E noi ne usiamo sempre di più: sia perché aumenta la popolazione della Terra, sia perché il maggiore benessere raggiunto da molti Paesi spinge la popolazione a consumare (e sprecare) più acqua. Un consumo che va esaminato non solo in termini “reali” (calcolando le quantità che si usano per la cura personale, per la cucina o per la pulizia della casa), ma anche “virtuali” (in termini di impronta idrica), stimando cioè tutta l’acqua che è stata utilizzata lungo l’intero ciclo di vita di un qualunque prodotto o servizio acquistato. Basti pensare che se si modificasse il proprio stile alimentare, passando ad esempio a prediligere una dieta più ricca di frutta, verdura e cereali, limitando la quantità di proteine animali, sarebbe possibile ridurre anche in modo significativo i consumi di acqua “virtuale”. Quindi, se da un lato la domanda cresce e dall’altro le risorse si riducono, anche per colpa dell’inquinamento e del cambiamento climatico, è sicuro che il valore economico dell’acqua aumenterà e le disuguaglianze, già oggi presenti, potranno portare nuovi attriti. Per questi motivi diventa fondamentale il concetto di Water Footprint, ossia l’analisi delle quantità di acqua utilizzata all’interno di tutta la filiera che porta alla produzione di un prodotto finito. Visto il mio corso di studi in ingegneria gestionale, ho deciso di concentrarmi principalmente sul concetto di Water Footprint all’interno dell’ambito industriale, analizzando in particolare il caso di un’azienda dell’Emilia Romagna. Ho scelto questo argomento perché sono sempre stato interessato all’ambiente e alla sua salvaguardia. Trattare nella tesi tale tema mi è sembrato utile per approfondire e diffondere concetti come quelli dell’impronta idrica e dell’acqua virtuale che, pur discussi a livello internazionale ormai da anni, tardano ancora ad essere affrontati in maniera ampia in Italia, che è il terzo Paese importatore netto di acqua virtuale al mondo.