30 resultados para Commissione Araldica Piemontese.
Resumo:
Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.
Resumo:
I materiali plastici trovano ampie applicazioni in ogni aspetto della vita e delle attività industriali. La maggior parte delle plastiche convenzionali non sono biodegradabili e il loro accumulo è una minaccia per il pianeta. I biopolimeri presentano vantaggi quali: la riduzione del consumo delle risorse e la riduzione delle emissioni CO2, offrendo un importante contributo allo sviluppo sostenibile. Tra i biopolimeri più interessanti troviamo il poliidrossibutirrato (PHB), l’oggetto di questo studio, che è il più noto dei poliidrossialcanoati. Questo polimero biodegradabile mostra molte somiglianze con il polipropilene. La tesi consiste nell’applicazione del Life Cycle Assessment a processi di estrazione del PHB da colture batteriche. In essa sono valutate le prestazioni ambientali di 4 possibili processi alternativi, sviluppati dal CIRI EA, che utilizzano il dimetilcarbonato (DMC) e di 3 processi che utilizzano solventi alogenati (cloroformio, diclorometano, dicloroetano). Per quanto riguarda i processi che utilizzano come solvente di estrazione il DMC, due sono gli aspetti indagati e per i quali differiscono le alternative: la biomassa di partenza (secca o umida), e il metodo di separazione del polimero dal solvente (per evaporazione del DMC oppure per precipitazione). I dati primari di tutti gli scenari sono di laboratorio per cui è stato necessario realizzare un up scaling industriale di tutti i processi. L’up scaling è stato realizzato in collaborazione con il Dipartimento di Ingegneria Civile Chimica Ambientale e dei Materiali. La valutazione delle prestazioni ambientali è stata fatta rispetto a tutte le categorie d’impatto raccomandate dall’Handbook della Commissione Europea, di queste solo alcune sono state analizzate nel dettaglio. Tutti i risultati mostrano un andamento simile, in cui gli impatti dei processi che utilizzano DMC sono inferiori a quelli dei solventi alogenati. Fra i processi che impiegano DMC, l’alternativa più interessante appare quella che impiega biomassa di partenza secca e raccolta del PHB per precipitazione.
Resumo:
This dissertation is divided into four chapters and combines the study of the European Green Capital Award with a terminology research on small wind turbines, a technical subject in the macro-area of sustainable cities. Chapter I aims at giving an overview of the development of environmental policies and treaties both at the international and European level. Then, after highlighting the crucial role of cities for the global environment, the chapter outlines the urban dimension of the EU environmental policies and defines the vision of a sustainable city promoted by the European Union. Chapter II contains an in-depth analysis of the European Green Capital Award and illustrates its aims, the entire designation process, its communication campaign and its evolution. Chapter III focuses on applicant, finalist and winning cities in order to study the aspect of participation in the competition. It also contains a detailed analysis of two European Green Capitals, i.e. Nantes and Bristol, who respectively won the title in 2013 and 2015. Based on a variety of sources, this chapter examines the successful aspects of their bids and communication campaigns during their year as Green Capitals. Chapter IV presents the terminology research in the field of small wind turbines and the resulting bilingual glossary in English and Italian. The research was carried out using two terminology tools: TranslatorBank and InterpretBank. The former is composed by two software programmes, CorpusCreator and MiniConcordancer DB, which were used to semi-automatically create specialized corpora from the Web and then extract terminology and occurrences of terms from the collected texts. The latter is a software which has been specifically designed for interpreters in order to help them optimize their professional workflow, from gathering information and creating glossaries on a specific subject to the actual interpreting task at a conference. InterpretBank’s tool TermMode was used to create a glossary with term equivalents and additional information such as definitions and the contexts of use.
Proposta metodologica per acquisizione e verificabilita di dati in rete trasmessi in maniera cifrata
Resumo:
Lo sviluppo di tecnologie informatiche e telematiche comporta di pari passo l’aumento di dispositivi informatici e di conseguenza la commissione di illeciti che richiedono l’uso di tecniche dell’informatica forense. Infatti, l'evoluzione della tecnologia ha permesso la diffusione di sistemi informatici connessi alla rete Internet sia negli uffici che nelle case di molte famiglie: il miglioramento notevole della velocità di connessione e della potenza dei dispositivi comporta l’uso di un numero sempre maggiore di applicazioni basate sul web 2.0, modificando lo schema classico d’uso del mezzo e passando da utente “lettore” a utente “produttore”: si potrebbe quasi porre la domanda “Chi non ha mai scritto un commento su un social network? Chi non ha mai caricato un video su una piattaforma di video sharing? Chi non ha mai condiviso un file su un sito?”. Il presente lavoro si propone di illustrare le problematiche dell’acquisizione del traffico di rete con particolare focus sui dati che transitano attraverso protocolli cifrati: infatti, l’acquisizione di traffico di rete si rende necessaria al fine di verificare il contenuto della comunicazione, con la conseguenza che diventa impossibile leggere il contenuto transitato in rete in caso di traffico cifrato e in assenza della chiave di decifratura. Per cui, operazioni banali nei casi di traffico in chiaro (come la ricostruzione di pagine html o fotografie) possono diventare estremamente impegnative, se non addirittura impossibile, quando non si sono previsti appositi accorgimenti e in assenza di idonei strumenti. Alla luce di tali osservazioni, il presente lavoro intende proporre una metodologia completa di acquisizione e uno strumento software che agevoli il lavoro di ricostruzione, e quindi verifica, dei dati contenuti nel traffico catturato, anche cifrato. Infine, verranno mostrati dei casi esemplificativi nei quali tale metodologia si rende opportuna (o meglio, necessaria) con test di ricostruzione dei dati eseguiti con il tool SSLTrafficReader.
Resumo:
Si è calcolata la percentuale di metalli rimossi (R%) da fly ash e scarti industriali ceramici sottoposti a vari tipi di leaching con acqua deionizzata, acido solforico (pH1), attacco alcalino (pH14) e trattamento combinato acido-alcalino. Il parametro R è molto importante perché è in grado di fornire un’indicazione riguardo l’effettiva efficacia di un tipo di leaching rispetto ad un altro. Così facendo è possibile valutare la reale fattibilità del recupero di materie prime critiche (secondo la Commissione Europea) da questi rifiuti. Per quanto riguarda il recupero da fly ash, il trattamento con leaching acido si dimostra il più valido per numero di elementi e percentuale di recupero. Tuttavia, anche se il leaching combinato per certi aspetti può sembrare migliore, bisogna anche considerare i costi di lavorazione, che in questo caso aumenterebbero sensibilmente. Per quanto riguarda gli scarti ceramici, è il leaching combinato a mostrare il miglior potenziale di rimozione dei metalli critici, sia in termini di percentuali che per il numero di elementi rimossi.
Resumo:
Il percorso del riconoscimento legislativo del diritto all’equo processo affonda le sue radici nel 1215, anno di promulgazione della Magna Charta Libertatum, e culmina, in ambito europeo, nel 1950, con la firma della Convenzione europea per la salvaguardia dei Diritti dell’Uomo e delle Libertà fondamentali (CEDU). In questo documento viene sancito che un prerequisito essenziale per garantire a tutti gli individui il diritto al fair trial è il servizio di assistenza linguistica gratuita, le cui specificità vengono descritte nella direttiva 2010/64/EU.Nel Regno Unito, già nei primi anni ’90 furono introdotte le prime misure per garantire la qualità e la competenza degli interpreti e dei traduttori in ambito giuridico-giudiziario: nel 1994 fu istituito il National Register for Public Service Interpreters (NRPSI), il registro nazionale a cui erano iscritti tutti gli interpreti per i servizi pubblici che erano in possesso di determinate qualifiche. Per assicurare che solo gli interpreti del NRPSI fossero impiegati in ambito penale, nel 1997 fu introdotto il National Agreement, un accordo non vincolante che regolava l’uso dei servizi linguisti nel Criminal Justice System. La prima versione fu modificata nel 2002 e nel 2007. In seguito ad alcune revisioni per conto del Ministero della Giustizia, nel 2010 fu avviato il processo di esternalizzazione dei servizi linguistici, che si concluse nel 2011 con la stipula del National Framework Agreement tra il Ministero della Giustizia e l’azienda Applied Language Solutions (ALS), che poco prima dell’avvio fu acquisita da un’azienda più grande, CAPITA TI. La scarsa esperienza del Ministero in questo settore, unita alle promesse poco realistiche e alla mancanza di trasparenza di ALS furono le cause principali dei numerosi problemi all’avvio del nuovo contratto che si ripercossero notevolmente sul funzionamento del sistema di giustizia. Dopo l’avvio di un piano di emergenza e un monitoraggio del Ministero, la situazione ha iniziato a ristabilirsi, senza raggiungere però i livelli pre-riforma. A Novembre 2015 è stata indetta la nuova gara di appalto: le minacce di nuovi tagli ai tariffari degli interpreti da una parte, e la partecipazione del NRPSI alla gara d’appalto come candidato al ruolo di ente supervisore della qualità dei servizi linguistici dall’altra, ci pongono di fronte a due scenari futuri molto diversi. L’elaborato è strutturato in quattro capitoli: il primo tratterà del percorso storico che ha portato al riconoscimento del diritto al processo equo, e degli strumenti comunitari a garanzia dell’assistenza linguistica gratuita. Nel secondo capitolo parleremo della situazione inglese, quindi la nascita del NRPSI e del National Agreement e le varie revisioni. Nel terzo prenderemo in esame la riforma del 2011 del Ministero della Giustizia britannico, analizzando diversi documenti: il rapporto della Commissione giustizia della Camera dei comuni 2013, quello del National Audit Office 2012, il sondaggio Involvis 2013, il rapporto indipendente OPTIMITY-MATRIX 2014.
Resumo:
Il litorale di Senigallia si sviluppa ai due lati del porto ed è caratterizzato da una costa bassa e sabbiosa, che già nei decenni passati ha risentito dell’influenza del porto nel tratto sottocorrente, in cui sono state installate delle opere di difesa. Nei primi anni del 2000 il porto ha subito ulteriori modifiche con possibili altri impatti sulla spiaggia emersa e sommersa. In tale ambito, la ditta Geomarine S.r.l. di Senigallia, su commissione del Comune di Senigallia, ha eseguito dei rilievi topo-batimetrici su un tratto del litorale del medesimo Comune dal 2009 al 2015. In questo lavoro di tesi ho partecipato personalmente alla campagna di misura del 2015. Per le indagini nella spiaggia sommersa è stata utilizzata una strumentazione Singlebeam e Multibeam mentre per i rilievi topografici è stato utilizzato un sistema GPS-NRTK. Con i dati acquisiti, elaborati e processati, è stato costruito un DTM con una carta delle isoipse e isobate dell’area. Allo scopo di integrare la ricostruzione morfologica ottenuta per l’area con informazioni sul sedimento presente, sono stati realizzati dei campionamenti lungo gli stessi transetti adottati in precedenti campagne sedimentologiche svolte dalla Regione Marche. I campioni sono stati successivamente sottoposti ad un’analisi granulometrica e i risultati confrontati tra loro e con quelli raccolti nei decenni precedenti. I risultati dei rilievi topo-batimetrici sono stati, infine, confrontati tra loro sui diversi intervalli temporali di acquisizione, per comprendere l’evoluzione del tratto di costa studiato nel breve termine e come i fattori naturali e antropici possano aver influito sui cambiamenti osservati. Per inquadrare l’evoluzione dell’area d’interesse su un arco temporale più ampio (1955-2015) si è poi effettuata un’analisi semi-qualitativa/quantitativa dell’andamento nel medio termine della linea di riva a partire da foto aeree.
Resumo:
Questo lavoro di tesi ha lo scopo di analizzare una frana appenninica riattivatasi a partire dal dicembre 2013 nel Comune di Grizzana Morandi (BO). L’operazione di studio della frana è iniziata partendo da una accurata campagna d’indagine eseguita in campo: per prima cosa è stata eseguita una dettagliata perlustrazione del corpo di frana e del territorio limitrofo, questa operazione comprende il rilevamento geologico di dettaglio ed il tracciamento (tramite dispositivo GPS) del profilo del deposito e della corona di distacco. Di fondamentale interesse sono state poi le informazioni ricavate dall’eseguimento di tre carotaggi sul corpo di frana, questi hanno permesso l’estrazione di carote utili a definire la stratigrafia verticale del luogo (fino ai 20 metri di profondità) e prelevare campioni di terreno per effettuare specifiche prove di laboratorio. Parte di queste prove sono state eseguite da un laboratorio di commissione, altre sono state eseguite nel laboratorio geotecnico dell’Università. I dati acquisiti tramite il monitoraggio, effettuato tramite l’istallazione di vari strumenti sul corpo di frana (piezometri, inclinometri ed estensimetri) sono risultati utili al fine di determinare la profondità della superficie di scorrimento, la velocità di movimento del deposito e la variazione del livello piezometrico. Le osservazioni effettuate sul campo e i dati provenienti dai sondaggi, dal monitoraggio e dalle prove di laboratorio sono stati elaborati e commentati, essi sono stati utilizzati per definire il modello geologico tecnico del territorio analizzato. Dalla definizione del modello geologico tecnico è stata effettuata la back analysis (la simulazione delle condizioni presenti sul versante al momento della rottura) tramite software specifico. L’operazione finale è stata la proposta (e la conseguente calibrazione) di diversi sistemi di messa in sicurezza del versante, utili a garantire nel tempo la stabilità del pendio analizzato.
Resumo:
Obbiettivo della tesi è sviluppare un metodo che valuti la probabilità di rottura arginale nella stesura delle mappe di pericolosità e di rischio alluvione. Ad oggi le mappe di pericolosità, redatte dagli enti regionali, considerano solo la probabilità di superamento dell’argine da parte del livello idrico (overtopping) e non il cedimento dello stesso a causa dell’instabilizzazione dovuta all’innalzamento del livello del fiume. Per la presente tesi si è scelto come caso di studio la rottura dell’argine destro del fiume Secchia del 19 gennaio 2014, presso la frazione di San Matteo, comune di Modena. Questo caso di rottura arginale è particolarmente interessante, poiché dopo l’accaduto la regione Emilia-Romagna ha predisposto una commissione tecnica per valutare le cause dell'evento. La commissione ha quindi predisposto una serie di indagini i cui dati saranno di fondamentale importanza nella presente tesi. Utilizzando, infatti, questo caso di cedimento arginale come esempio si è potuto innanzitutto ricostruire il fenomeno che ha provocato il fallimento dell’argine e ricalcolare il rischio inondazione sulle zone allagate considerando la probabilità di fallimento del sistema arginale. Per fare ciò, si sono inizialmente eseguite varie modellazioni idrauliche, sul corpo arginale, per stabilire gli spostamenti della tavola d’acqua e i valori di pressione interstiziale dei pori al variare dei tiranti idrici utilizzando il software SEEP/W. Successivamente si è utilizzato SLOPE/W allo scopo di verificate le probabilità di cedimento dell'argine in relazione alle modellazioni idrauliche effettuate con SEEP/W. Una volta ricavate le probabilità di rottura alle varie quote idriche con SLOPE/W, le si è riportate su un foglio di calcolo Excel e ricavata la curva di fragilità dell'argine e calcolato le probabilità di accadimento degli eventi alluvionali. Dopo di ciò attraverso l’utilizzo del software CA2D si sono modellate le mappe di alluvione per i vari eventi e con l’ausilio di Qgis si sono ricavate le mappe di pericolosità e calcolato il rischio sugli edifici interessati.
Resumo:
Nell'elaborato viene introdotto l'ambito della Computer Vision e come l'algoritmo SIFT si inserisce nel suo panorama. Viene inoltre descritto SIFT stesso, le varie fasi di cui si compone e un'applicazione al problema dell'object recognition. Infine viene presentata un'implementazione di SIFT in linguaggio Python creata per ottenere un'applicazione didattica interattiva e vengono mostrati esempi di questa applicazione.
Resumo:
Questa tesi di laurea si pone l’obiettivo di investigare alcune delle nuove frontiere offerte dalla crescita sincretica e multidisciplinare dei linguaggi digitali applicati all’architettura e ai beni culturali. Si approfondiranno i concetti teorici fondamentali dell’informazione digitale: il web semantico come ambiente di scambio, i metadata come informazioni sui dati, i LOD (Link Open Data) come standard e fine. Per l’ambito dei beni culturali verranno presentati i temi di ricerca e sviluppo nel campo della catalogazione e fruizione digitali: ontologie, dizionari normalizzati aperti, database (Catalogo Digitale), etc. Per l’ambito edilizio-architettonico verrà introdotto l’Heritage Building Information Modeling (HBIM) semantico come metodologia multidisciplinare focalizzata su rilievo geometrico, modellazione, archiviazione e scambio di tutte le informazioni utili alla conoscenza e conservazione dei beni storici. Il punto d’incontro tra i due mondi è individuato nella possibilità di arricchire le geometrie attraverso la definizione di una semantica (parametri-metadati) relazionata alle informazioni (valori-dati) presenti nei cataloghi digitali, creando di fatto un modello 3D per architetture storiche con funzione di database multidisciplinare. Sarà presentata la piattaforma web-based Inception, sviluppata dall’omonima startup incubata come spinoff dall’Università di Ferrara, che, tra le diverse applicazioni e potenzialità, verrà utilizzata come strumento per la condivisione e fruizione, garantendo la possibilità di interrogare geometrie e metadati in continuità con i principi LOD. Verrà definito un workflow generale (procedure Scan2BIM, modellazione geometrica, definizione script per l’estrazione automatica dei dati dal Catalogo Digitale, associazione dati-geometrie e caricamento in piattaforma) successivamente applicato e adattato alle precise necessità del caso studio: la Chiesa di S. Maria delle Vergini (MC), su commissione dell’ICCD referente al MiBACT.
Resumo:
Il Digita Service Act (DSA) è una delle due parti di una proposta di legge che si prefigge come obiettivo quello di modernizzare e rendere più efficace la Direttiva sul commercio elettronico. I sevizi online non sempre sono usati in modo consono: basti pensare alle tecniche di “nudging” (il pilotare le scelte di un utente inconsciamente) o la numerosa presenza di contenuti illegali e disinformativi presenti sulle piattaforme di social media. La proposta di legge, avanzata dalla Commissione europea, si pone come obiettivo la risoluzione di queste problematiche, proponendo una serie di obblighi e restrizioni per evitare che l’utenza online subisca un’esperienza negativa. Allo scopo di capire quali siano i pensieri degli stakeholders riguardo la proposta del DSA, è stata condotta un’analisi statistica su un dataset di 110 file, ognuno dei quali rappresenta un feedback di uno stakeholder, tramite gli algoritmi Wordfish ed MCA.
Resumo:
La sostenibilità (ambientale, economica e sociale) non rappresenta per le aziende un trend passeggero, ma una direzione da seguire per poter rispondere a norme sempre più stringenti e a consumatori sempre più attenti. La tesi illustra il concetto di sviluppo sostenibile, il quale ha segnato varie tappe della storia tra cui la pubblicazione nel 2015 dell’Agenda 2030 dalle Nazioni Unite e la definizione dei 17 obiettivi di sviluppo sostenibile per contrastare i problemi climatici. Vengono descritti i principali strumenti introdotti dall’Unione Europea per promuovere una crescita verde, utilizzando leve di intervento sia legislative che con incentivi, quali il Green Deal che mira a promuovere attività sostenibili che non generino emissioni di inquinanti, il decreto legislativo che regola l’informativa non finanziaria, il Piano d’Azione della Commissione Europea per finanziare la crescita sostenibile. Quello che le aziende comunicano sui propri siti web è una prima indicazione delle loro politiche in materia di sostenibilità, insieme ai report e alle certificazioni più formali. Lo scopo della tesi è valutare a che punto sono le aziende di diversi settori e dimensioni nella comunicazione di queste tematiche, analizzando un campione di esse, per mezzo di un form progettato per raccogliere e archiviare dati strutturati presi dai siti web. Grazie a questo si arriverà ad un punteggio per ciascuna di esse che rappresenta l’attuale livello comunicativo. Un problema attuale riscontrato è quello del greenwashing: una strategia di marketing, per dimostrare un impegno non reale nei confronti dell’ambiente agli occhi degli stakeholder e per farle guadagnare punti in reputazione e immagine aziendale. Il fine ultimo della tesi è quello di dimostrare che la sostenibilità è una scelta necessaria che va compiuta fin da subito, e non una questione solo delle grandi aziende o dei settori più “verdi”.
Resumo:
La richiesta dei consumatori di prodotti sostenibili, le lotte per il cambiamento climatico e l'importanza che viene data alla sostenibilità dal mondo finanziario hanno fatto sì che la politica intraprendesse iniziative sulle tematiche sostenibili e di conseguenza le imprese hanno adottato azioni in linea con i criteri ESG. Anche se per le aziende intraprendere un percorso sostenibile non sia economicamente conveniente e per raggiungere determinati obiettivi servono sforzi e tempi lunghi, sono consapevoli dei benefici nel medio-lungo termine a livello economico, di reputazione e vantaggio competitivo. Queste iniziative però si concentrano prevalentemente sul primo anello della supply chain e le società che operano in un mercato globale fanno difficoltà a rispettare le differenti norme giuridiche non compatibili negli Stati in cui è presente la propria value chain. Per risolvere questi problemi la della Commissione Europea il 23/02/2022 ha proposto la direttiva sulla Corporate Sustainability Due Diligence, che impone l’obbligo per le imprese di implementare un processo di due diligence in tutta la value chain per prevenire effetti negativi e potenziali sui diritti umani e sull’ambiente. L’obiettivo dell'elaborato è di analizzare la direttiva di due diligence per comprendere quanto le aziende di oggi siano pronte al monitoraggio di un’intera catena del valore. Il caso studio scelto per lo scopo è quello dell’azienda Fincantieri S.p.A. la quale ha intrapreso da qualche anno un percorso di sostenibilità. Attraverso il confronto fra le azioni in atto dell'azienda e la direttiva, dalla trattazione emerge che la sfida più grande che Fincantieri dovrà affrontare sarà la condivisione delle pratiche già in atto nei livelli più profondi della supply chain. L’approvazione della direttiva, incentivando anche indirettamente le aziende ad operare in ottica di sostenibilità, aiuterà a perseguire l'obiettivo di due diligence in un percorso di crescita e miglioramento con i fornitori
Prime prove per la mitigazione in ambito aziendale sull'accumulo di acrilammide in diversi frollini.
Resumo:
L’obiettivo principale di questa tesi è stato lo studio dei fattori che a livello genetico, di formulazione e di processo possono influenzare lo sviluppo di acrilammide nei frollini. L’acrilammide è una sostanza che appartiene alla categoria dei “probabili cancerogeni” per la salute dell’uomo, per cui è necessario cercare di ridurne il contenuto negli alimenti. A livello legislativo, la Commissione Europea ha redatto un regolamento (Reg. UE 2017/2158) nel quale vengono indicate le principali norme e accortezze da seguire a livello aziendale per ridurre la sua presenza negli alimenti. Tramite l’attività di tirocinio svolta presso l’azienda Deco Industrie S. C. R. L. con sede a San Michele (RA) è stato possibile osservare concretamente a livello industriale i problemi legati all’accumulo di acrilammide per alcuni alimenti prodotti. In particolare, l’attenzione dell’azienda durante il periodo di mia permanenza presso la sede è stata rivolta a tre tipi di frollini, considerati i più critici, per i quali è stata monitorata la concentrazione di acrilammide nel tempo, andando a modificare la formulazione della ricetta. Ovviamente questo studio di tesi riporta un primo approccio al problema e rappresenta quindi il punto di partenza per studi futuri più approfonditi con lo scopo di raggiungere una standardizzazione del prodotto con livelli sempre più bassi di acrilammide.