974 resultados para diffusione anelastica, Compton, apparato sperimentale
Resumo:
Il patrimonio edilizio italiano è costituito in gran parte da costruzioni che utilizzano la muratura come struttura portante. Le conoscenze acquisite negli ultimi anni nel campo dell’ingegneria hanno reso evidente come le costruzioni in muratura siano state concepite, nel corso dei secoli, senza quegli accorgimenti che l’evoluzione delle tecniche moderne di analisi ha dimostrato essere necessari. Progettare un intervento edilizio su un edificio esistente, correlato anche alla valutazione di rischio sismico, e cercare di migliorare le prestazioni dello stesso edificio, richiede partire sempre dalla conoscenza delle caratteristiche statiche intrinseche che il materiale della muratura possiede. La conoscenza della patologia comporta l'indubbio vantaggio di mettere al corrente di cosa ci si può attendere nel futuro dal punto di vista strutturale, come ad esempio che il fenomeno non sarà eliminabile all'origine e che la fessura o lesione magari si riformerà sempre, a meno d’interventi statici rilevanti e di costi ingenti. Diventa quindi di fondamentale importanza eseguire uno studio approfondito dei fenomeni strutturali anomali di deterioramento, quali lesioni, fessurazioni e simili, legati spesso a fattori ambientali, attraverso specifiche indagini diagnostiche e di monitoraggio dello stato interno delle strutture, per definire le cause responsabili e il metodo più adeguato alla tutela dei beni storici [Mastrodicasa, 1993]. Il monitoraggio dei possibili parametri che influenzano tali processi può essere continuo nel tempo o per mezzo di metodologia discontinua che prevede l’utilizzo e la ripetizione di prove non distruttive. L’elevato costo di un eventuale processo continuo ha limitato significativamente la sua applicazione, riducendo lo studio all’analisi di pochi parametri derivanti dalle prove diagnostiche e spesso non del tutto adatti alla completa analisi della struttura. Il seguente lavoro di tesi è sviluppato all’interno del progetto SmooHS (Smart Monitoring of Historic Structures) nell’ambito del 7° Programma Quadro della Commissione Europea che si pone come obiettivo lo sviluppo di strumenti di monitoraggio innovativi ‘intelligenti’ e poco invasivi e modelli di degrado e la loro sperimentazione sul campo per verificarne l’effettiva efficacia attraverso il confronto con risultati di prove non distruttive. La normativa correlata a questo studio, “Norme Tecniche per le Costruzioni’ (D.M. 14/01/2008), evidenzia come ‘La conoscenza della costruzione storica in muratura è un presupposto fondamentale sia ai fini di un’attendibile valutazione della sicurezza sismica attuale sia per la scelta di un efficace intervento di miglioramento…. Si ha pertanto la necessità di affinare tecniche di analisi e interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può, infatti, essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche, e delle indagini sperimentali. Tali operazioni saranno funzione degli obiettivi preposti e andranno a interessare tutto o in parte l’edificio, secondo la tipologia dell’intervento previsto’. L’utilizzo di ‘Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche e ultrasoniche’ è preferibile poiché molto promettenti e hanno il pregio di poter essere utilizzate in modo diffuso con un relativo impatto sulla costruzione e costi relativamente contenuti. La non identificazione di una procedura univoca di prove non distruttive per ciascuna tipologia edilizia rende necessario uno studio di fattibilità di diverse tecniche per valutarne l’effettiva efficacia in base al risultato atteso. L’obiettivo di questo lavoro di tesi è stato lo studio sperimentale di valutazione dell’efficacia di alcune tecniche soniche in trasmissione, tomografia e prove soniche dirette, nel monitoraggio di provini precedentemente realizzati ad hoc nei laboratori LISG (Laboratorio di Ingegneria Strutturale e Geotecnica) del DICAM dell’Università di Bologna caratterizzati da presenze di discontinuità (vacui o inclusioni di polistirolo) o materiali differenti in determinate posizioni di geometria e localizzazione nota e diverse tessiture murarie (muratura di laterizio tradizionale, muratura a sacco, inclusioni lapidee). Il capitolo 1 presenta una descrizione generale delle murature, le cause principali di deterioramento e conseguenti dissesti. Presenta inoltre una finestra sulle prove diagnostiche. Nel capitolo 2 sono riportati alcuni esempi di applicazioni di tomografia e prove soniche e sviluppi di ricerca su strutture storiche lignee e murarie eseguite recentemente. Nel capitolo 3 sono presentati i provini oggetto di studio, la loro geometria, i difetti, le sezioni. Il capitolo 4 descrive i principi fisici delle prove soniche e grandezze caratteristiche e presenta la procedura di acquisizione e relative strumentazioni. I capitoli 5 e 6 riguardano lo studio sperimentale vero e proprio ottenuto attraverso l’utilizzo di tomografia sonica e prove dirette, con descrizione delle stazioni di prova, visualizzazione dei dati in tabelle per una semplice interpretazione, loro elaborazione e susseguente analisi approfondita, con valutazione dei risultati ottenuti e debite conclusioni. Il capitolo 7 presenta un confronto delle analisi comuni a entrambe le tipologie di prove soniche, visualizzazioni di istogrammi di paragone e considerazioni deducibili.
Resumo:
In this thesis we describe in detail the Monte Carlo simulation (LVDG4) built to interpret the experimental data collected by LVD and to measure the muon-induced neutron yield in iron and liquid scintillator. A full Monte Carlo simulation, based on the Geant4 (v 9.3) toolkit, has been developed and validation tests have been performed. We used the LVDG4 to determine the active vetoing and the shielding power of LVD. The idea was to evaluate the feasibility to host a dark matter detector in the most internal part, called Core Facility (LVD-CF). The first conclusion is that LVD is a good moderator, but the iron supporting structure produce a great number of neutrons near the core. The second conclusions is that if LVD is used as an active veto for muons, the neutron flux in the LVD-CF is reduced by a factor 50, of the same order of magnitude of the neutron flux in the deepest laboratory of the world, Sudbury. Finally, the muon-induced neutron yield has been measured. In liquid scintillator we found $(3.2 \pm 0.2) \times 10^{-4}$ n/g/cm$^2$, in agreement with previous measurements performed at different depths and with the general trend predicted by theoretical calculations and Monte Carlo simulations. Moreover we present the first measurement, in our knowledge, of the neutron yield in iron: $(1.9 \pm 0.1) \times 10^{-3}$ n/g/cm$^2$. That measurement provides an important check for the MC of neutron production in heavy materials that are often used as shield in low background experiments.
Resumo:
Lo scopo del Progetto Extreme Energy Events (EEE) e` di studiare raggi cosmici di energia estrema, eventi molto rari ma ricchi di informazioni. La grande difficolta` nell'affrontare la fisica dei raggi cosmici di altissima energia risiede nel flusso estremamente basso con cui tali particelle giungono sulla terra. Si utilizzano infatti reti molto estese di rivelatori: le informazioni che si possono ricavare derivano dalla rivelazione delle particelle secondarie prodotte nello sviluppo di sciami estesi di raggi cosmici primari che interagiscono con l'atmosfera terrestre. Il Progetto EEE prevede di dislocare su tutto il territorio italiano un array di telescopi (costituiti da Multi Gap Resistive Plate Chambers) per raggi cosmici secondari. Il lavoro presentato riguarda la simulazione Monte Carlo degli sciami e lo studio delle loro caratteristiche, la simulazione delle prestazioni di griglie di rivelazione differenti ed infine l'analisi dei primi dati raccolti nei telescopi di Bologna, con il conseguente confronto con la simulazione.
Resumo:
The atmospheric muon charge ratio, defined as the number of positive over negative charged muons, is an interesting quantity for the study of high energy hadronic interactions in atmosphere and the nature of the primary cosmic rays. The measurement of the charge ratio in the TeV muon energy range allows to study the hadronic interactions in kinematic regions not yet explored at accelerators. The OPERA experiment is a hybrid electronic detector/emulsion apparatus, located in the underground Gran Sasso Laboratory, at an average depth of 3800 meters water equivalent (m.w.e.). OPERA is the first large magnetized detector that can measure the muon charge ratio at the LNGS depth, with a wide acceptance for cosmic ray muons coming from above. In this thesis, the muon charge ratio is measured using the spectrometers of the OPERA detector in the highest energy region. The charge ratio was computed separately for single and for multiple muon events, in order to select different primary cosmic ray samples in energy and composition. The measurement as a function of the surface muon energy is used to infer parameters characterizing the particle production in atmosphere, that will be used to constrain Monte Carlo predictions. Finally, the experimental results are interpreted in terms of cosmic ray and particle physics models.
Resumo:
Negli ultimi anni i progressi tecnologici in termini di miniaturizzazione elettronica, hanno permesso la realizzazione di componenti hardware ed in particolare di microprocessori e sensori dalle dimensioni ridottissime. Questo ha favorito la recente diffusione di reti di sensori wireless (Wireless Sensor Network) basate su sistemi embedded più o meno complessi ed applicate a settori di mercato che vanno dalla domotica alle applicazioni industriali, fino al monitoraggio dei pazienti. Lo scopo di questa tesi, svolta in collaborazione con la società Rinnova di Forlì, consiste nell’implementazione di un dimostratore che mostri la reale capacità di realizzare una rete WS che si appoggia su di un sistema embedded commerciale ed ampiamente diffuso come la piattaforma Arduino ed in grado di rilevare il livello di ammoniaca presente negli allevamenti di pollame. Tale gas infatti, se presente in quantità notevole, provoca una dannosa alterazione comportamentale dei polli e risulta quindi un parametro molto importante da monitorare. Oltre al sensore di ammoniaca, misurazione principale richiesta dal progetto, ne sono stati aggiunti uno per la temperatura ed uno per l’umidità. L’architettura finale implementata è quella tipica di una rete a stella, in cui il master centrale colleziona a polling i dati provenienti dai sensori collegati agli slave e li invia ad un server web, rendendoli accessibili mediante la rete Internet. L’utente finale può così accedere alla pagina web da un qualunque PC dotato di connessione Internet, monitorare i dati dei sensori e soprattutto verificare quando il livello di ammoniaca supera la soglia di attenzione, potendo così intervenire immediatamente nell’allevamento per effettuare le dovute operazioni di pulizia.
Resumo:
Diversi studi presenti in letteratura hanno messo in evidenza come il sistema di filtrazione di un olio extravergine di oliva rivesta un ruolo importante per una corretta conservazione del prodotto nel tempo; contestualmente, l’applicazione di metodi tradizionali di trattamento comporta la diminuzione di alcuni componenti minori: oltre all’allontanamento dei composti in sospensione, che concorrono a fornire l’aspetto torbido all’olio non trattato, viene allontanata acqua micro dispersa, che ha l’importante compito di solubilizzare molecole dotate di una certa polarità, principalmente fenoliche che, come noto, risultano indispensabili per la stabilità ossidativa e giocano un ruolo chiave nell’impartire all’olio extravergine di oliva alcune note sensoriali peculiari, quali l’amaro ed il piccante, percepibili in fase gustativa. Lo scopo di questo progetto sperimentale è stato di valutare la qualità chimica e sensoriale di tre oli extra vergini di oliva sottoposti ad un sistema brevettato di illimpidimento, basato sul passaggio di un flusso di gas inerte, quale l’argon, nella massa di olio d'oliva. Questo metodo può rappresentare una valida alternativa ai trattamenti tradizionali e per questo è indispensabile valutarne i punti di forza e di debolezza in relazione all’effettiva possibilità di impiego nella produzione industriale. Per questa finalità, il sistema brevettato dall'Università di Bologna e dalla Sapio (una società privata che fornisce il gas per i settori industriali e della ricerca) è stato applicato a un lotto di 50 L di ciascun olio dopo la sua produzione mediante mini-frantoio. I campioni, sia trattati che controllo, sono stati imbottigliati e conservati a temperatura ambiente e mantenuti al buio prima dell'analisi. Dopo quattro mesi di conservazione, sono stati valutati gli indici di qualità di base, tra cui acidità libera, numero di perossidi, assorbimento specifico nella zona dei dieni e trieni coniugati e il profilo sensoriale. Inoltre è stata valutata la stabilità ossidativa in condizioni forzate, il profilo dei composti maggioritari (acidi grassi) e dei composti minori (tocoferoli, fenoli, volatili, acqua). I risultati sono stati utilizzati per la comparazione della qualità complessiva degli oli extravergini di oliva sottoposti a chiarifica con sistema brevettato rispetto a quelli non trattati, permettendo una valutazione dell’effetto del nuovo sistema sulle caratteristiche chimiche e sensoriali del prodotto.
Resumo:
La tesi riguarda le possibili connessioni tra la diffusione dei contratti di coltivazione(con disciplinari di coltivazione)e l'aumento della qualità del prodotto. Si basa su un indagine svolta intervistando con un questionario un campione di circa dieci aziende agricole. A tale proposito si cerca di capire quali aziende hanno sottoscritto dei contratti e, successivamente, si chiede agli intervistati un giudizio sulle prescrizioni contenute nei disciplinari di coltivazione. In base hai dati raccolti non si evidenziano aumenti sensibili della qualità connessi alla sottoscrizione di contratti di coltivazione.
Resumo:
Lo sviluppo negli ultimi decenni di strumentazioni sempre più pratiche, versatili, veloci ed economicamente accessibili, ha notevolmente incrementato la capacità delle aziende, in particolar modo quelle operanti nel settore dell'industria alimentare, nel cogliere le potenzialità di una tecnologia che applica rigore scientifico a una materia a lungo considerata liminale e di secondaria rilevanza, quale quella cromatica. A fronte di ciò, si è ritenuto opportuno introdurre strumenti di misura formalizzati a livello internazionale, atti a individuare e verificare parametri di colore, i quali attestassero la qualità della materia prima utilizzata, nonché riconducibili a una tecnologia di produzione di massa. L’attuale progetto deriva dalla necessità di un’azienda produttrice di concentrati in pasta e semi-lavorati in polvere per la gelateria e la pasticceria, di introdurre un sistema di misurazione oggettiva del colore, che vada a sostituirsi a una valutazione soggettiva, a lungo ritenuta come unico metodo valido di analisi. Il ruolo rivestito all’interno di tale azienda ha consentito, grazie anche al supporto fornito dal Controllo Qualità, la realizzazione di un elaborato finale di sintesi, contenente i risultati delle analisi colorimetriche condotte su alcune paste concentrate. A partire dunque dalla letteratura scientifica elaborata in materia, si è proceduto inizialmente, alla realizzazione di una parte generale riguardante la descrizione del colore, delle sue proprietà e manifestazioni, e dei metodi di misurazione, ripercorrendo le tappe dalla nascita delle prime teorie fino all’adozione di uno spazio di colore universale; una seconda sperimentale, in cui si elaborano- tramite software statistici (Anova , Spectra Magic Nx)- i parametri colorimetrici e il pH dei singoli campioni. In particolare, la determinazione del colore su paste concentrate, ha permesso di valutare in maniera oggettiva le variazioni di colore in termini di coordinate L*, a*, b*, che avvengono durante il periodo di conservazione (24-36 mesi). Partendo dai dati oggettivi di colore, sono state definite semplici equazioni che descrivono l'andamento dei parametri in funzione dei mesi di conservazione e del pH del prodotto. Nell’ottica del miglioramento della gestione della qualità delle aziende specializzate nella produzione di semilavorati-concentrati per le gelaterie, il presente lavoro ha fornito uno spunto per la realizzazione e l’applicazione di un sistema di controllo del colore durante la conservazione del prodotto; ha anche permesso di definire le linee per un sistema di analisi colorimetrica utile alla messa a punto di un database aziendale comprensivo d’indici, stime e annotazioni. Tale database dovrà essere mirato all’ottenimento di un sempre più alto livello di qualità del prodotto, suggerendo allo stesso tempo possibili interventi correttivi (maggior standardizzazione del colore e possibile definizione di un adeguato intervallo di tolleranza), ma anche a un miglioramento nella gestione di problematiche in fase di produzione e quindi, l’incremento della capacità produttiva con conseguente riduzione dei tempi di evasione degli ordini. Tale contributo ha consentito a delineare le future prospettive di sviluppo favorendo l’implementazione (nella realtà aziendale) di un approccio strumentale e quindi oggettivo, in relazione alle più comuni problematiche di tipo colorimetrico, al fine di migliorare il valore qualitativo del prodotto.
Resumo:
Negli ultimi anni, affianco ai succhi di frutta “classici” è sempre più importante la produzione di “nuovi succhi” che vengono formulati a partire da frutta non convenzionalmente utilizzata per la produzione di succo. Un esempio particolare è il melograno, ricco di sostanze come ellagitannini, antociani e altri derivati dell’acido gallico ed ellagico. Al melograno sono state attribuite differenti attività biologiche tra le quali effetti benefici a livello cardiovascolare ed intestinale, attività di prevenzione del cancro e altre patologie neurodegenarative. Non è ancora chiaro quali siano i costituenti che dimostrano avere tali proprietà. L’alto potere antiossidante degli ellagitannini ha fatto supporre che fossero essi stessi i responsabili di alcune attività benefiche. Tuttavia, è stato dimostrato che la loro biodisponibilità è molto bassa, in particolare, alcuni studi hanno dimostrato che essi vengono trasformati dalla flora batterica intestinale in urolitine, che, in quella forma, possono essere assorbiti nell’intestino. Per questo motivo si pensa che questi composti, formati a partire dai tannini, presenti nel melograno, siano i responsabili dell’attività. Questo lavoro sperimentale si colloca all’interno del progetto finanziato dalla Regione Emilia-Romagna; in particolare fa parte dell’OR4 “componenti alimentari che concorrano al mantenimento di uno stato di benessere fisico e riduca il rischio di contrarre malattie”. In questo lavoro sperimentale sono stati analizzati succhi di melograno ottenuti da arilli, i semi del melograno, di cultivar e provenienze geografiche diverse. Lo scopo è quello di mettere a punto metodiche analitiche strumentali avanzate (HPLC-ESI-TOF-MS) per la determinazione di antociani e altri composti fenolici nei succhi oggetto della sperimentazione e di identificare i composti presenti nei diversi campioni. La possibilità di utilizzare un analizzatore di massa come il TOF, infatti, permetterà di avere un’ottima accuratezza/sicurezza nell’identificazione dei composti fenolici nei campioni in esame. I metodi messi a punto verranno poi utilizzati per la determinazione dei composti fenolici nei diversi succhi di melograno.
Resumo:
Le encefalopatie spongiformi trasmissibili (EST), o malattie da prioni, sono malattie neurodegenerative che colpiscono l'uomo e gli animali. Le più note tra le EST animali sono la scrapie della pecora e della capra, l’encefalopatia spongiforme bovina (BSE), la Sindrome del dimagrimento cronico (CWD) dei cervidi. Negli uomini ricordiamo la malattia di Creutzfeldt-Jakob (CJD) nelle sue diverse forme (sporadica, genetica, iatrogenica e variante). La dimostrazione che la variante della CJD (vCJD) sia causata dallo stesso agente eziologico della BSE, ha evidenziato il potenziale zoonotico di queste malattie. Le EST sono caratterizzate da tempi di incubazione estremamente lunghi ed esito invariabilmente fatale. Il momento patogenetico centrale comune a tutte queste malattie è rappresentato dalla modificazione conformazionale di una proteina cellulare denominata PrPC (proteina prionica cellulare) in una isoforma patologica denominata PrPSc, insolubile e caratterizzata da una parziale resistenza alle proteasi, che tende a depositarsi sotto forma di fibrille amiloidee nel SNC dei soggetti colpiti. La suscettibilità degli ovini alla scrapie è largamente influenzata dal genotipo del gene dell’ospite che codifica per la PrP (PRNP), e più precisamente da tre polimorfismi presenti ai codoni 136, 154 e 171. Questi si combinano in cinque principali alleli, ARQ, VRQ, AHQ, ARH e ARR, correlati a differenti gradi di suscettibilità alla malattia. Risultati ottenuti da un precedente studio d’infezione sperimentale di ovini di razza Sarda con scrapie classica (Vaccari G et al 2007), hanno suggeriscono l’ordine di suscettibilità ARQ>AHQ>ARH. L’allele ARR, è risultato invece associato ai più alti livelli di protezione dalla malattia. Dallo stesso studio di trasmissione sperimentale e da uno studio epidemiologico di tipo caso-controllo, è inoltre emerso che nella razza Sarda, ovini con l’allele ARQ, con sostituzione amminoacidica al codone 137 Metionina (M)/Treonina (T) (AT137RQ) o al 176 Asparagina (N)/Lisina (K) (ARQK176) in eterozigosi sono protetti dalla scrapie. Inoltre studi di trasmissione sperimentale della BSE in ovini della stessa razza con tre differenti genotipi (ARQ/ARQ, ARQ/ARR e ARR/ARR), hanno dimostrato come la BSE abbia un targeting genetico molto simile a quello della scrapie, evidenziando il genotipo ARQ/ARQ come il più suscettibile. L’obbiettivo della seguente tesi è stato quello di verificare se fosse possibile riprodurre in vitro la differente suscettibilità genetica degli ovini alle EST evidenziata in vivo, utilizzando il PMCA (Protein Misfolding Cyclic Amplification), la metodica ad oggi più promettente e di cui è stata dimostrata la capacità di riprodurre in vitro diverse proprietà biologiche dei prioni. La tecnica, attraverso cicli ripetuti di sonicazione/incubazione, permette la conversione in vitro della PrPC presente in un omogenato cerebrale (substrato), da parte di una quantità minima di PrPSc (inoculo) che funge da “innesco” della reazione. Si è voluto inoltre utilizzare il PMCA per indagare il livello di protezione in omozigosi di alleli rari per i quali, in vivo, si avevano evidenze di protezione dalla scrapie solo in eterozigosi, e per studiare la suscettibilità degli ovini alla BSE adattata in questa specie. È stata quindi testata in PMCA la capacità diversi substrati ovini recanti differenti genotipi, di amplificare la PrPSc dello stesso isolato di scrapie classica impiegato nel precedente studio in vivo o di un inoculo di BSE bovina. Inoltre sono stati saggiati in vitro due inoculi di BSE costituiti da omogenato cerebrale di due ovini sperimentalmente infettati con BSE (BSE ovina) e recanti due differenti genotipi (ARQ/ARQ e ARR/ARR). Per poter descrivere quantitativamente il grado di correlazione osservato i risultati ottenuti in vitro e i quelli riscontrati dallo studio di sperimentazione con scrapie, espressi rispettivamente come fattori di amplificazione e tempi d’incubazione registrati in vivo, sono stati analizzati con un modello di regressione lineare. Per quanto riguarda la scrapie, i risultati ottenuti hanno evidenziato come i genotipi associati in vivo a suscettibilità (ARQ/ARQ, ARQ/AHQ and AHQ/ARH) siano anche quelli in grado di sostenere in PMCA l’amplificazione della PrPSc, e come quelli associati a resistenza (ARQ/ARR and ARR/ARR) non mostrino invece nessuna capacità di conversione. Dall’analisi di regressione lineare è inoltre emerso come l’efficienza di amplificazione in vitro dei differenti genotipi testati sia inversamente proporzionale ai tempi d’incubazione registrati in vivo. Inoltre nessuna amplificazione è stata riscontrata utilizzando il substrato con genotipo raro ARQK176/ARQK176 suggerendo come anche questo possa essere associato a resistenza, almeno nei confronti dell’isolato di scrapie classica utilizzato. Utilizzando come inoculo in PMCA l’isolato di BSE bovina, è stato possibile riscontrare, nei tre genotipi analizzati (ARQ/ARQ, ARQ/ARR e ARR/ARR) un evidente amplificazione per il solo genotipo ARQ/ARQ, sottolineando anche in questo caso l’esistenza di una correlazione tra suscettibilità riscontrata in vivo e capacità di conversione in PMCA. I tre i substrati analizzati mostrano inoltre una buona efficienza di amplificazione, per altro simile, se si utilizza la PrPSc dell’inoculo di BSE sperimentalemente trasmessa agli ovini. Questi genotipi sembrerebbero dunque ugualmente suscettibili se esposti a BSE adattata alla specie ovina. I risultati di questa tesi indicano dunque una correlazione diretta tra la capacità di conversione della PrPC con il PMCA e la suscettibilità osservata in vivo per i differenti genotipi analizzati. Mostrano inoltre come il PMCA possa essere una valida alternativa agli studi di trasmissione in vivo e un rapido strumento utile non soltanto per testare, ma anche per predire la suscettibilità genetica degli ovini a diversi ceppi di EST, rappresentando un valido aiuto per l’individuazione di ulteriori genotipi resistenti, così da incrementare la variabilità genetica dei piani di selezione attuati per gli ovini per il controllo di queste malattie.
Resumo:
Introduzione Una delle maggiori difficoltà durante la produzione dei prodotti surgelati riguarda la loro stabilizzazione e il mantenimento della catena del freddo durante tutte le fasi del processo produttivo. Tramite il seguente lavoro si propone di determinare a che temperatura e dopo quanto tempo, diverse tipologie di confezioni di surgelati (pisellini, melanzane e spinaci), raggiungono la temperatura ipotetica di inizio di scongelamento. Con lo scopo di analizzare, in maniera rapida ed economica, molte diverse combinazioni di tempo - temperatura dell’ambiente di produzione di diverse tipologie di prodotti surgelati (pisellini, melanzane e spinaci), sono stati sviluppati dei modelli numerici capaci di descrivere i fenomeni termici che intervengono durante il confezionamento dei prodotti. Materiali e Metodi Il modello sviluppatotiene conto sia dei fenomeni di convezione naturale che avvengono tra la superficie della confezione e il flusso esterno di aria, sia dei fenomeni di conduzione che interessano l'interno della confezione, la confezione (busta) ed il piano di appoggio. In figura vengono schematizzati i fenomeni termici presi in esame. La geometria del modelli rispecchia le reali dimensioni delle confezioni dei prodotti presi in esame. La mesh dei modelli 3D è costituita da elementi triangolari, posizionati sulle boundaries, tetraedrici e prismatici, posizionati in tutto il restante dominio. Trattandosi di trasferimenti di calore per superfici, nelle zone di interfaccia è stata adottata una mesh particolarmente fine. In figura viene riportata la mesh dell'intera geometria ed un particolare della mesh interna dove, i diversi colori indicano elementi tetraedrici o prismatici di diverse dimensioni. Per ottenere un accurato modello numerico è necessario descrivere nel modo più realistico possibile i materiali coinvolti, quindi è stato necessario descrivere i prodotti surgelati tramite le loro reali proprietà termiche in funzione della temperatura (conducibilità termica, calore specifico, diffusività termica). I valori delle proprietà termiche utilizzati nel modello tengono conto del fatto che il materiale interno alla busta è poroso, infatti è costituito da una "miscela" di aria e prodotto Successivamente sono state impostate le equazioni del modello e le condizioni al contorno. All'interno del volume della confezione, il trasfermiento del calore avviene per conduzione, mentre sulla superficie avviene per convezione, nelle zone esposte all'aria e per contatto nelle zone di contatto tra confezione e piano di appoggio. La validazione è stata effettuata riproducendo numericamente le medesime condizioni utilizzate durante la sperimentazione. I parametri tenuti in considerazione sono i seguenti: tipologia di confezione (definita numericamente dai parametri dimensionali), tipologia di prodotto (contraddistinto da specifiche proprietà termo-fisiche), temperatura della cella di conservazione, tempo di conservazione, temperatura iniziale all'interno della confezione pari. Risultati In figura viene riportato un esempio di configurazione dell’andamento della temperatura all’interno della confezione di pisellini dopo 20 minuti di condizionamento a 5°C. E’ possibile osservare che la temperatura della parte di confezione a diretto contatto con il piano di acciaio, raggiunge zero gradi (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). Con lo scopo di simulare la conservazione della confezione posizionata verticalmente, è stata eliminata la condizione di contatto tra piano d'acciaio e confezione. E’ possibile osservare che, in questo caso, la variazione della temperatura nei diversi punti della confezione è meno elevata, infatti la temperatura massima registrata è pari a circa -8°C (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). La confezione di melanzane è risultata essere la meno adatta al mantenimento della temperatura in quanto è caratterizzata da un ampia area di contatto con il piano e da uno spessore abbastanza limitato; la confezione che mantiene la temperatura più a lungo è quella costituita dagli spinaci, anche se le temperature medie delle confezioni di spinaci e pisellini sono pressoché simili. A fronte dei risultati ottenuti confrontando gli andamenti della temperatura delle tre differenti confezione, è stato valutato l'effetto del volume della confezione sull'andamento della temperatura media e al centro della confezione. Le prove sono state effettuate dimezzando e aumentando del doppio il volume della confezione di pisellini. Differenze significative sono state riscontrate solo tra la confezione standard e quella con volume raddoppiato. Dalla validazione sperimentale è risultato che il modello che meglio si adatta ai dati sperimentali è quello relativo ai pisellini, probabilmente perché il prodotto all'interno della confezione è distribuito in maniera piuttosto uniforme. Nelle confezioni degli spinaci e delle melanzane, risulta molto più difficile definire un valore di porosità che può variare anche da busta a busta. Tuttavia, a fronte di questa variabilità, i modelli risultano essere adatti ad un uso industriale. Conclusioni -I modelli numerici sviluppati permettono di analizzare un numero arbitrario di combinazioni delle variabili durata del confezionamento, temperatura ambiente, temperatura iniziale del prodotto, forma e dimensioni della confezione. - Il modello permette di osservare il campo di temperatura con un grado di dettaglio irraggiungibile dalle tecniche sperimentali. -I risultati, in forma integrale, si trovano in ottimo accordo con quelli osservati sperimentalmente.
Resumo:
Nel presente elaborato si è affrontato il tema dell’utilizzo di biogas per la produzione di energia elettrica e termica; in primo luogo è stata fatta una panoramica sulla diffusione degli impianti di digestione anaerobica in Europa e in Italia, con particolare attenzione alla logica degli incentivi volti alla promozione delle fonti rinnovabili. Il biogas presenta infatti il duplice vantaggio di inserirsi sia nell’ottica del “Pacchetto Clima-Energia” volto alla riduzione di consumi energetici da fonti fossili, sia nella migliore gestione dei rifiuti organici volta alla riduzione del conferimento in discarica. L’allineamento degli incentivi italiani con quelli europei, prevista dal Decreto Ministeriale 6 luglio 2012, presuppone un’espansione del settore biogas più oculata e meno speculativa di quella degli ultimi anni: inoltre la maggiore incentivazione all’utilizzo di rifiuti come materia prima per la produzione di biogas, comporta l’ulteriore vantaggio di utilizzare, per la produzione di energia e compost di qualità, materia organica che nel peggiore dei casi sarebbe inviata in discarica. Il progetto oggetto di studio nasce dalla necessità di trattare una quantità superiore di Frazione Organica di Rifiuti Solidi Urbani da R.D, a fronte di una riduzione drastica delle quantità di rifiuti indifferenziati conferiti ai siti integrati di trattamento di rifiuti non pericolosi. La modifica nella gestione integrata dei rifiuti prevista dal progetto comporta un aumento di efficienza del sito, con una drastica riduzione dei sovvalli conferiti a discariche terze, inoltre si ha una produzione di energia elettrica e termica annua in grado di soddisfare gli autoconsumi del sito e di generare un surplus di elettricità da cedere in rete. Nel contesto attuale è perciò conveniente predisporre nei siti integrati impianti per il trattamento della FORSU utilizzando le Migliori Tecniche Disponibili proposte dalle Linee Guida Italiane ed Europee, in modo tale da ottimizzare gli aspetti ambientali ed economici dell’impianto. Nell’elaborato sono stati affrontati poi gli iter autorizzativi necessari per le autorizzazioni all’esercizio ed alla costruzione degli impianti biogas: a seguito di una dettagliata disamina delle procedure necessarie, si è approfondito il tema del procedimento di Valutazione di Impatto Ambientale, con particolare attenzione alla fase di Studio di Impatto Ambientale. Inserendosi il digestore in progetto in un sito già esistente, era necessario che il volume del reattore fosse compatibile con l’area disponibile nel sito stesso; il dimensionamento di larga massima, che è stato svolto nel Quadro Progettuale, è stato necessario anche per confrontare le tipologie di digestori dry e wet. A parità di rifiuto trattato il processo wet richiede una maggiore quantità di fluidi di diluizione, che dovranno essere in seguito trattati, e di un volume del digestore superiore, che comporterà un maggiore dispendio energetico per il riscaldamento della biomassa all’interno. È risultata perciò motivata la scelta del digestore dry sia grazie al minore spazio occupato dal reattore, sia dal minor consumo energetico e minor volume di reflui da trattare. Nella parte finale dell’elaborato sono stati affrontati i temi ambientali,confrontando la configurazione del sito ante operam e post operam. È evidente che la netta riduzione di frazione indifferenziata di rifiuti, non totalmente bilanciata dall’aumento di FORSU, ha consentito una riduzione di traffico veicolare indotto molto elevato, dell’ordine di circa 15 mezzi pesanti al giorno, ciò ha comportato una riduzione di inquinanti emessi sul percorso più rilevante per l’anidride carbonica che per gli altri inquinanti. Successivamente è stata valutata, in modo molto conservativo, l’entità delle emissioni ai camini dell’impianto di cogenerazione. Essendo queste l’unico fattore di pressione sull’ambiente circostante, è stato valutato tramite un modello semplificato di dispersione gaussiana, che il loro contributo alla qualità dell’aria è generalmente una frazione modesta del valore degli SQA. Per gli ossidi di azoto è necessario un livello di attenzione superiore rispetto ad altri inquinanti, come il monossido di carbonio e le polveri sottili, in quanto i picchi di concentrazione sottovento possono raggiungere frazioni elevate (fino al 60%) del valore limite orario della qualità dell’aria, fissato dal D.Lgs 155/2010. Infine, con riferimento all’ energia elettrica producibile sono state valutate le emissioni che sarebbero generate sulla base delle prestazioni del parco elettrico nazionale: tali emissioni sono da considerare evitate in quanto l’energia prodotta nel sito in esame deriva da fonti rinnovabili e non da fonti convenzionali. In conclusione, completando il quadro di emissioni evitate e indotte dalla modifica dell’impianto, si deduce che l’impatto sull’ambiente non modificherà in maniera significativa le condizioni dell’aria nella zona, determinando una variazione percentuale rispetto agli inquinanti emessi a livello regionale inferiore all’1% per tutti gli inquinanti considerati (CO, PM10, NOX, NMCOV). Il vantaggio più significativo riguarda una riduzione di emissioni di CO2 dell’ordine delle migliaia di tonnellate all’anno; questo risultato è importante per la riduzione di emissione dei gas serra in atmosfera e risulta in accordo con la logica dell’utilizzo di biomasse per la produzione di energia. Dal presente elaborato si evince infine come l’utilizzo del biogas prodotto dalla digestione anaerobica della Frazione Organica dei Rifiuti Solidi Urbani non comporti solo un vantaggio dal punto di vista economico, grazie alla presenza degli incentivi nazionali, ma soprattutto dal punto di vista ambientale, grazie alla riduzione notevole dei gas serra in atmosfera, in accordo con gli obiettivi europei e mondiali, e grazie al recupero di rifiuti organici per la produzione di energia e compost di qualità.
Resumo:
Dopo aver introdotto l'argomento della certificazione energetica attraverso l'analisi delle direttive europee in materia, delle legislazioni nazionali, dei regolamenti regionali e delle procedure di calcolo (ITACA, LEED, etc.) si passa poi allo studio di un caso reale, la Masseria Sant'Agapito. All'inquadramento della masseria e delle attività connesse, segue un focus sull'edificio attualmente adibito a b&b, del quale si esegue la diagnosi sperimentale (termografia all'infrarosso, test di tenuta, etc.) e la certificazione con l'ausilio del software DOCET di ENEA. Si delineano quindi interventi atti alla riqualificazione energetica e alla riduzione dei consumi per tale edificio. In seguito si ipotizza un progetto di recupero funzionale, da attuarsi secondo i criteri della conservazione dell'esistente e della bioedilizia, impiegando materiali naturali e con un ciclo di vita a basso impatto ecologico. Alla progettazione d'involucro, segue la progettazione dell'impianto termico alimentato a biomassa, degli impianti solare termico (autocostruito) e fotovoltaico (inegrato in copertura) e del generatore mini-eolico. Tali tecnologie consentono, attraverso l'impiego di fonti di energia rinnovabile, la totale autosufficienza energetica e l'abbattimento delle emissioni climalteranti riferibili all'esercizio dell'edificio. La certificazione energetica di tale edificio, condotta questa volta con l'ausilio del software TERMUS di ACCA, consente una classificazione nella categoria di consumo "A".
Resumo:
The procedure for event location in OPERA ECC has been optimazed for penetrating particles while is less efficient for electrons. For this reason new procedure has been defined in order to recover event with an electromagnetic shower in its final state not located with the standard one. The new procedure include the standard procedure during which several electromagnetic shower hint has been defined by means of the available data. In case the event is not located, the presence of an electromagnetic shower hint trigger a dedicated procedure. The old and new location procedure has been then simulated in order to obtain the standard location efficiency and the possible gain due to the new one for the events with electromagnetic shower. Finally a Data-MC comparison has been performed for the 2008 and 2009 runs for what concern the NC in order to validate the Monte Carlo. Then the expected electron neutrino interactions for the 2008 and 2009 runs has been evaluated and compared with the available data.