1000 resultados para acque, Marecchia, tecniche analitiche, nitrati


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggigiorno  le  richieste  di  rilievi  tridimensionali  e  di  rappresentazioni  3D  ad  alta  qualità  i  sono  sempre  più  frequenti,  e  coinvolgono  un  numero  sempre  maggiore  di  discipline  e  ambiti  applicativi,  quali  quello  industriale,  medico,  archeologico,  forense,  museale, ecc., con ulteriori prospettive di allargamento per quanto riguarda la natura ed  il numero delle realizzazioni.  Il  lavoro  di  ricerca  svolto,  di  natura  prevalentemente  applicata,  vuole  andare  ad  investigare un settore, quello degli oggetti di medie, medio-piccole e soprattutto piccole  dimensioni, che, a parere dell’autore, non è stato ancora investigato a fondo;di questo  d’altra  parte  dà  riscontro  il  numero  relativamente  limitato  di  lavori  presenti  in  letteratura su questo tema.  Sebbene la metodologia di lavoro non sia concettualmente diversa da quella che si  adotta comunemente in ambito close range, le problematiche che sono state incontrate  nel corso dei diversi casi di studio analizzati nel periodo di dottorato hanno evidenziato  la  necessità  di  soluzioni  tecniche  e  metodologiche  specifiche,  anche  in  funzione  dei  requisiti di precisione che competono ad oggetti di piccole dimensioni.  Nel corso degli anni, si è visto  un allargamento della base di utenti che trovano nel  prodotto  3D  un  importante  strumento  di  lavoro;  si  pensi  alla  cinematografia,  alla  computer grafica, alle simulazioni virtuali a partire da modelli 3D realistici, ecc. Questo  trend sembra, al giorno d’oggi, non trovare ancora una battuta d’arresto. Considerando il  settore  dei  Beni  Culturali,  per  esempio,  si  tratta  di  un  campo  di  applicazione  delle  tecniche  geomatiche  abbastanza  ristretto  e  sostanzialmente  nuovo,  in  quanto  le  problematiche di documentazione e visualizzazione di beni mobili ed immobili sono in  genere indirizzate prevalentemente ad oggetti a scala di edificio, porzione di edificio o  elementi  quali  bassorilievi  e  statue,  comunque  con  un  ordine  di  grandezza  che  va  da  qualche  metro  alla  decina  di  metri.  Qualora,  come  detto  in  precedenza,  si  volesse  aumentare  ulteriormente  la  scala  di  indagine  e  di  rappresentazione,  devono  essere  adottate  delle  tecniche  di  rilievo  che  possano  fornire  un'adeguata  precisione,  con  strumenti e tecnologie che possano adattarsi alle diverse configurazioni e caratteristiche  geometriche. Nella  tesi  viene  dunque  affrontata  la  problematica  del  rilievo  e  della  modellazione  tridimensionale,  con  alto  livello  di  dettaglio,  di  oggetti  di  dimensioni  che  variano  da  qualche decina a pochi centimetri; una situazione di questo tipo può aversi in svariati  ambiti,  che  vanno  da  quello  industriale  e  del  design  a  quello  biologico  e  medico,  dall’archeologia ed alla musealizzazione virtuale alle indagini forensi, ecc.  Concentrando  l’analisi  al  campo  dei  Beni  Culturali,  oggi  oggetto  di  importanti  ricerche  applicative  che  trovano  impulso  anche  dallo  sviluppo  delle  nuove  tecnologie,  sono molto numerose e varie le occasioni in cui operare con oggetti di altissimo valore e  dimensioni molto ridotte: un esempio immediato è quello fornito dal rilievo di reperti  archeologici,  ma  nell’ambito  del  restauro,  dell’analisi  dei  materiali,  delle  indagini  non  distruttive, le potenzialità sono di grandissimo interesse..   Comunemente,  fino  a  poco  tempo  fa,  e  soprattutto  in  ambito  museale,  la  documentazione  geometrica  di  un  bene  culturale  mobile  di  piccole  dimensioni  si  è  limitata  ad  una  rappresentazione  fotografica,  riportante  magari  elementi  metrici  minimali,  come  un  righello  posto  di fianco  all’oggetto,  in  grado  di  fornire  una  scala  di  lettura.  Ciò  che  si  è  in  genere  tenuto  in  scarsa  considerazione,  ma  in  grado  invece    di  dare  al  contenuto  informativo  quel  qualcosa  in  più  rispetto  alla  semplice  fotografia,  è  l’adozione  di  metodologie  per  un  rilievo  rigoroso  e  metrico,  metodologie  che  possono  essere di grandissimo interesse non solo a fini di studio e divulgazione dell’oggetto (si  pensi alla problematica della virtualizzazione della fruizione di beni museali) ma anche  per  scopi  diversi  quali  la  duplicazione  e  riproduzione  di  copie  dell’oggetto  (a  scala  identica  al  vero  o  a  scala  diversa).  Di  frequente  infatti  ci  si  trova  di  fronte  a  problematiche  legate  alla  salvaguardia  e  conservazione  dell’oggetto,  in  termini  di  accesso  e  visione  da  parte  del  pubblico,  di  mantenimento  in  particolari  condizioni  microclimatiche, di difficoltà di manipolazione a fini di studio e misura, ecc.   Nella  tesi  sono  state  prese  in  considerazione  le  due  tecniche  geomatiche  che  si  prestano  a  soddisfare  nel  miglior  modo  possibile  i  requisiti  di  correttezza  metrica  e  radiometrica che un rilievo ad elevata precisione richiede. Tali tecniche, rappresentate  dalla fotogrammetria digitale con ottiche Macro e dal laser a scansione, in particolare del  tipo a triangolazione, sono state sperimentate sul campo , in modo da poter valutarne le  potenzialità,  non  solo  alla  luce  dei  risultati  finali  ottenuti,  ma  anche  considerando  i  problemi al contorno che esse comportano.   Nel  corso  di  numerose  sperimentazioni  in  laboratorio  e  sul  campo  sono  stati  analizzati problemi quali la calibrazione di obiettivi macro e la realizzazione di reticoli   speciali atti allo scopo, la qualità dei DSM di origine laser e fotogrammetrica, l’estrazione  di  caratteristiche  morfologiche di  microrilievo,  le  conseguenze  della  compressione  dei  dati  immagine,  la  calibrazione  radiometrica  ed  il  filtraggio  delle  immagini  digitali,  l’allineamento di nuvole di punti con algoritmi ICP. 

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Approfondimento di tecniche di controllo ottimo per problemi di regolazione e di inseguimento di modello. Sintesi e implementazione di un algoritmo che si occupi del controllo della dinamica laterale di una vettura attraverso il sistema di aerodinamica mobile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Progettazione ed implementazione di una strategia di migrazione da IPv4 a IPv6 in una realtà complessa come quella del consorzio interuniversitario CINECA. Sono stati presi in considerazione sia i livelli di rete e trasporto, sia il livello applicativo, cercando di fornire una visione completa delle problematiche incontrate. La strategia di migrazione scelta comprende le scelte tecniche fino ad ora implementate dal CINECA e i successivi passi che verranno intrapresi in futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il termine extravergine, per un olio di alta qualità, rappresenta solo un pre-requisito: la categoria merceologica, intesa come conformità ad una serie di analisi chimico-sensoriali previste dalla normativa Europea, non è sufficiente ad esaltare il valore aggiunto che un olio può avere in termini di attributi di qualità sensoriale e salutistica. Questi ultimi sono fortemente influenzati dalla presenza di alcuni composti minori, come le molecole volatili e quelle a struttura fenolica (biofenoli). I composti volatili sono i principali responsabili dell'aroma di un olio extravergine d’oliva, mentre i biofenoli lo sono per gli attributi positivi, di amaro e piccante, già normati dal legislatore. Lo studio ha riguardato le relazioni esistenti tra le sostanze volatili e biofenoliche e le percezioni sensoriali ad esse associate. Tra gli oli extravergini di oliva partecipanti all’International Olive Oil Award di Zurigo 2012, sono stati selezionati 28 campioni monovarietali di diversa provenienza geografica (principalmente Italia, Spagna e Grecia). La valutazione sensoriale è stata eseguita dal panel dell’Institute of Food and Beverage Innovation di Zurigo con l’impiego di una scheda di profilo più descrittiva di quella ufficiale (Reg. CE 640/2008), contenente numerosi attributi positivi secondari valutati su scala discreta a 4 punti, oltre ad armonia e persistenza, su scala continua di 10 cm. I campioni sono stati sottoposti alla caratterizzazione della frazione biofenolica (indice di amaro, contenuto in fenoli totali ed analisi delle principali molecole fenoliche mediante HPLC-DAD/MSD) e dei composti volatili (SPME/GC-MSD). I dati ottenuti sono stati elaborati con l’ausilio di tecniche di analisi multivariata nel tentativo di valutare le correlazioni esistenti tra le variabili e di individuare gruppi omogenei di oli. La finalità di questo lavoro è stata quella di suggerire attributi discriminanti la qualità sensoriale di oli di pregio, che possano essere impiegati come leve di promozione dei prodotti, così come indicatori addizionali di autenticità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

UML è ampiamente considerato lo standard de facto nella fase iniziale di modellazione di sistemi software basati sul paradigma Object-Oriented; il suo diagramma delle classi è utilizzato per la rappresentazione statica strutturale di entità e relazioni che concorrono alla definizione delle specifiche del sistema; in questa fase viene utilizzato il linguaggio OCL per esprimere vincoli semantici sugli elementi del diagramma. Il linguaggio OCL però soffre della mancanza di una verifica formale sui vincoli che sono stati definiti. Il linguaggio di modellazione Alloy, inserendosi in questa fase, concettualmente può sopperire a questa mancanza perchè può descrivere con le sue entità e relazioni un diagramma delle classi UML e, tramite propri costrutti molto vicini all'espressività di OCL, può specificare vincoli semantici sul modello che verranno analizzati dal suo ambiente l'Alloy Analyzer per verificarne la consistenza. In questo lavoro di tesi dopo aver dato una panoramica generale sui costrutti principali del linguaggio Alloy, si mostrerà come è possibile creare una corrispondenza tra un diagramma delle classi UML e un modello Alloy equivalente. Si mostreranno in seguito le analogie che vi sono tra i costrutti Alloy e OCL per la definizione di vincoli formali, e le differenze, offrendo nel complesso soluzioni e tecniche che il modellatore può utilizzare per sfruttare al meglio questo nuovo approccio di verifica formale. Verranno mostrati anche i casi di incompatibilità. Infine, come complemento al lavoro svolto verrà mostrata, una tecnica per donare una dinamicità ai modelli statici Alloy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo di questa tesi è sviscerare i concetti fondamentali legati al SEO, in particolar modo dal punto di vista delle aziende italiane: l’evoluzione di questo business nel nostro territorio, gli strumenti e le tecniche di ottimizzazione impiegati nella realizzazione dei siti internet, i capitali, umani ed economici, che alimentano questo mercato in Italia e all’estero e i fattori che oggigiorno sono considerati di fondamentale importanza per ottenere visibilità nei motori di ricerca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, affianco ai succhi di frutta “classici” è sempre più importante la produzione di “nuovi succhi” che vengono formulati a partire da frutta non convenzionalmente utilizzata per la produzione di succo. Un esempio particolare è il melograno, ricco di sostanze come ellagitannini, antociani e altri derivati dell’acido gallico ed ellagico. Al melograno sono state attribuite differenti attività biologiche tra le quali effetti benefici a livello cardiovascolare ed intestinale, attività di prevenzione del cancro e altre patologie neurodegenarative. Non è ancora chiaro quali siano i costituenti che dimostrano avere tali proprietà. L’alto potere antiossidante degli ellagitannini ha fatto supporre che fossero essi stessi i responsabili di alcune attività benefiche. Tuttavia, è stato dimostrato che la loro biodisponibilità è molto bassa, in particolare, alcuni studi hanno dimostrato che essi vengono trasformati dalla flora batterica intestinale in urolitine, che, in quella forma, possono essere assorbiti nell’intestino. Per questo motivo si pensa che questi composti, formati a partire dai tannini, presenti nel melograno, siano i responsabili dell’attività. Questo lavoro sperimentale si colloca all’interno del progetto finanziato dalla Regione Emilia-Romagna; in particolare fa parte dell’OR4 “componenti alimentari che concorrano al mantenimento di uno stato di benessere fisico e riduca il rischio di contrarre malattie”. In questo lavoro sperimentale sono stati analizzati succhi di melograno ottenuti da arilli, i semi del melograno, di cultivar e provenienze geografiche diverse. Lo scopo è quello di mettere a punto metodiche analitiche strumentali avanzate (HPLC-ESI-TOF-MS) per la determinazione di antociani e altri composti fenolici nei succhi oggetto della sperimentazione e di identificare i composti presenti nei diversi campioni. La possibilità di utilizzare un analizzatore di massa come il TOF, infatti, permetterà di avere un’ottima accuratezza/sicurezza nell’identificazione dei composti fenolici nei campioni in esame. I metodi messi a punto verranno poi utilizzati per la determinazione dei composti fenolici nei diversi succhi di melograno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo del presente elaborato di tesi è stato quello di mettere a punto una metodica in estrazione in fase solida (SPE) per la determinazione dei composti polari, in alternativa alla metodica ufficiale prevista dalla Circ. Minisan 11.01.91 n.1. Durante la frittura avvengono diverse trasformazioni chimiche che portano alla formazione di composti polari come monogliceridi e digliceridi, acidi grassi liberi, acidi grassi dimeri e polimerizzati, trigliceridi dimeri e polimerizzati. Tali composti, dal punto di vista nutrizionale, sono quelli più importanti poiché rimangono nell’olio, sono assorbiti dall’alimento, e di conseguenza ingeriti. I composti polari hanno una notevole importanza a livello nutrizionale e fisiologico, infatti diversi studi hanno evidenziano come essi possano avere un impatto sull’organismo umano. In seguito a tutte queste motivazioni, per prevenire possibili rischi per il consumatore, derivanti dall’uso improprio o eccessivamente ripetuto di oli e grassi per frittura, l’Istituto Superiore di Sanità prevede che il tenore dei composti polari non debba essere superiore a 25 g/100 g, infatti i composti polari sono l’unico parametro sottoposto ad un controllo ufficiale negli oli da frittura. La metodica ufficiale per la determinazione dei composti polari negli oli da frittura, è descritta nella Circ. Minisan dell’11.1.91 n.1. Tuttavia, tale metodica presenta diverse problematiche, poiché richiede un’elevata manualità da parte dell’operatore ed elevati quantitativi di solventi, con il conseguente impatto economico ed ambientale. Nella fase di messa a punto della metodica SPE, sono stati considerati diversi parametri: tipo di fase stazionaria, quantità di olio, miscele eluenti (in diverse quantità e rapporti). E’ stata scelta l’oleina di palma come matrice di prova della messa a punto, perché è molto utilizzata in frittura e perché, tra gli oli da frittura, risulta essere quello con maggior contenuto in composti polari. I migliori risultati sono stati ottenuti con una colonnina SPE in gel di silice (55 µm, 70 A) avente una capacità di 5 g/20 mL, depositando 400 mg di olio ed eluendo il campione con 80 mL di esano: etere dietilico (90:10, v/v) (composti apolari), e 20 mL di etere dietilico (composti polari). L’efficienza separativa della SPE è stata verificata tramite gascromatografia. Per poter valutare la ripetibilità, efficienza ed attendibilità della metodica SPE, è stata utilizzata l’oleina di palma prima e dopo essere soggetta a diversi cicli di frittura (dopo il primo e quinto giorno di frittura), in modo da avere diversi livelli di composti polari sulla stessa matrice. La metodica SPE ha mostrato un’eccellente ripetibilità analitica intra-giorno, indipendentemente dal livello di composti polari rilevati nell’oleina di palma (14,1-25,5%); infatti, la ripetibilità intra-giorno non ha superato l’1,5%. Inoltre, la ripetibilità intra-giorno non ha subito modifiche in funzione del contenuto di composti polari. Di conseguenza, si è osservato anche un’ottima ripetibilità analitica inter-giorno, che è variata da 0,64% a l’1,18%. Entrambi valori di ripetibilità (intra ed inter-giorni) attestano che questa metodica in estrazione in fase solida può essere utilizzata per la valutazione dei composti polari negli oli da frittura. Confrontando i livelli medi di composti polari ottenuti tramite la metodica SPE e quella ufficiale applicate all’oleina di palma tal quale, dopo il primo e quinto giorno di frittura, sono state rilevate delle piccole differenze (non significative) tra le due metodiche, essendo i livelli di composti polari in tutti i casi leggermente superiori nei dati della SPE. Entrambe le metodiche hanno presentato un’ottima ripetibilità intra-giorno (< 1,5% e < 3,5% per la SPE e la metodica ufficiale, rispettivamente) e sono risultate comunque confrontabili tra loro. La metodica SPE e quella ufficiale sono state poi applicate anche su altri oli vegetali (extravergine di oliva, olio di girasole alto oleico: olio di palma (60:40, v/v) ed olio di palma: olio di girasole alto oleico (55:45, v/v) ) e confrontate. In effetti, è stato osservato che le percentuali dei composti polari rilevati nello stessa tipologia d’olio sono molto simili, indipendentemente dalla metodica con cui siano stati valutati; è stata infatti confermata un’eccellente correlazione lineare tra i dati. Questo stesso andamento è stato riscontrato negli oli sottoposti a diversi cicli di frittura, il che conferma che entrambe metodiche analitiche sono capaci di separare efficientemente ed in modo analogo i composti non polari da quelli polari. Negli oli analizzati, sono state trovate delle percentuali di composti polari diverse, strettamente correlate all’origine dell’olio, alla sua composizione ed al processo di estrazione. Per ultimo, l’analisi dei costi (che includeva materiali, solventi, personale, ed elettricità) di entrambe le metodiche analitiche ha confermato che l’analisi SPE costerebbe € 22-30, a differenza di quella ufficiale, il cui costo sarebbe di circa € 45. Tale differenza è dovuta principalmente ai costi legati all’operatore ed ai consumi di solventi e di elettricità. Pertanto, la metodica SPE è risultata essere più conveniente in termini economici, poiché porta ad un risparmio di ca. € 15-20 per analisi, oltre che ad un dimezzamento dei solventi. Un altro aspetto importante da sottolineare è il diverso tempo che ciascuna delle metodiche prevede per l’analisi dei composti polari, essendo nettamente più veloce la metodica SPE (circa 1,30 h) rispetto alla metodica ufficiale (circa 3 h). La metodica SPE qui sviluppata ha quindi dimostrato di avere un’efficienza separativa e ripetibilità simili a quella della metodica ufficiale, rendendo possibile una minore manipolazione da parte dell’operatore, tempi più brevi di analisi e l’impiego di bassi quantitativi di solventi, portando così ad una riduzione dell’impatto ambientale ed a costi inferiori di operazione. Pertanto, la metodica SPE può rappresentare una valida alternativa alla metodica ufficiale, prevista dalla Circ. Minisan 11.1.91 n.1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduzione Una delle maggiori difficoltà durante la produzione dei prodotti surgelati riguarda la loro stabilizzazione e il mantenimento della catena del freddo durante tutte le fasi del processo produttivo. Tramite il seguente lavoro si propone di determinare a che temperatura e dopo quanto tempo, diverse tipologie di confezioni di surgelati (pisellini, melanzane e spinaci), raggiungono la temperatura ipotetica di inizio di scongelamento. Con lo scopo di analizzare, in maniera rapida ed economica, molte diverse combinazioni di tempo - temperatura dell’ambiente di produzione di diverse tipologie di prodotti surgelati (pisellini, melanzane e spinaci), sono stati sviluppati dei modelli numerici capaci di descrivere i fenomeni termici che intervengono durante il confezionamento dei prodotti. Materiali e Metodi Il modello sviluppatotiene conto sia dei fenomeni di convezione naturale che avvengono tra la superficie della confezione e il flusso esterno di aria, sia dei fenomeni di conduzione che interessano l'interno della confezione, la confezione (busta) ed il piano di appoggio. In figura vengono schematizzati i fenomeni termici presi in esame. La geometria del modelli rispecchia le reali dimensioni delle confezioni dei prodotti presi in esame. La mesh dei modelli 3D è costituita da elementi triangolari, posizionati sulle boundaries, tetraedrici e prismatici, posizionati in tutto il restante dominio. Trattandosi di trasferimenti di calore per superfici, nelle zone di interfaccia è stata adottata una mesh particolarmente fine. In figura viene riportata la mesh dell'intera geometria ed un particolare della mesh interna dove, i diversi colori indicano elementi tetraedrici o prismatici di diverse dimensioni. Per ottenere un accurato modello numerico è necessario descrivere nel modo più realistico possibile i materiali coinvolti, quindi è stato necessario descrivere i prodotti surgelati tramite le loro reali proprietà termiche in funzione della temperatura (conducibilità termica, calore specifico, diffusività termica). I valori delle proprietà termiche utilizzati nel modello tengono conto del fatto che il materiale interno alla busta è poroso, infatti è costituito da una "miscela" di aria e prodotto Successivamente sono state impostate le equazioni del modello e le condizioni al contorno. All'interno del volume della confezione, il trasfermiento del calore avviene per conduzione, mentre sulla superficie avviene per convezione, nelle zone esposte all'aria e per contatto nelle zone di contatto tra confezione e piano di appoggio. La validazione è stata effettuata riproducendo numericamente le medesime condizioni utilizzate durante la sperimentazione. I parametri tenuti in considerazione sono i seguenti: tipologia di confezione (definita numericamente dai parametri dimensionali), tipologia di prodotto (contraddistinto da specifiche proprietà termo-fisiche), temperatura della cella di conservazione, tempo di conservazione, temperatura iniziale all'interno della confezione pari. Risultati In figura viene riportato un esempio di configurazione dell’andamento della temperatura all’interno della confezione di pisellini dopo 20 minuti di condizionamento a 5°C. E’ possibile osservare che la temperatura della parte di confezione a diretto contatto con il piano di acciaio, raggiunge zero gradi (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). Con lo scopo di simulare la conservazione della confezione posizionata verticalmente, è stata eliminata la condizione di contatto tra piano d'acciaio e confezione. E’ possibile osservare che, in questo caso, la variazione della temperatura nei diversi punti della confezione è meno elevata, infatti la temperatura massima registrata è pari a circa -8°C (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). La confezione di melanzane è risultata essere la meno adatta al mantenimento della temperatura in quanto è caratterizzata da un ampia area di contatto con il piano e da uno spessore abbastanza limitato; la confezione che mantiene la temperatura più a lungo è quella costituita dagli spinaci, anche se le temperature medie delle confezioni di spinaci e pisellini sono pressoché simili. A fronte dei risultati ottenuti confrontando gli andamenti della temperatura delle tre differenti confezione, è stato valutato l'effetto del volume della confezione sull'andamento della temperatura media e al centro della confezione. Le prove sono state effettuate dimezzando e aumentando del doppio il volume della confezione di pisellini. Differenze significative sono state riscontrate solo tra la confezione standard e quella con volume raddoppiato. Dalla validazione sperimentale è risultato che il modello che meglio si adatta ai dati sperimentali è quello relativo ai pisellini, probabilmente perché il prodotto all'interno della confezione è distribuito in maniera piuttosto uniforme. Nelle confezioni degli spinaci e delle melanzane, risulta molto più difficile definire un valore di porosità che può variare anche da busta a busta. Tuttavia, a fronte di questa variabilità, i modelli risultano essere adatti ad un uso industriale. Conclusioni -I modelli numerici sviluppati permettono di analizzare un numero arbitrario di combinazioni delle variabili durata del confezionamento, temperatura ambiente, temperatura iniziale del prodotto, forma e dimensioni della confezione. - Il modello permette di osservare il campo di temperatura con un grado di dettaglio irraggiungibile dalle tecniche sperimentali. -I risultati, in forma integrale, si trovano in ottimo accordo con quelli osservati sperimentalmente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerose evidenze dimostrano che le proprietà dei materiali compositi sono strettamente legate ai processi produttivi, alle tipologie di fibra e resina impiegate nel materiale stesso. Proprietà caratterizzate anche dai difetti contenuti nel materiale stesso. Nella tesi si presta particolare attenzione al processo produttivo con prepreg e autoclave trattando anche il tema della stesura di un ply-book. Si valutano in modo teorico e critico alcuni tra i metodi N.D.T. più avanzati tra cui: P.T.(Penetrant Test), Rx(Radiography Test), UT (Ultrasound Test in Phased Array) e IRT (InfraRed Termography - Pulsata). Molteplici sono i componenti testati che variano tra loro per: tipologia di resina e fibra impiegata, processo produttivo e geometria. Tutti questi componenti permettono di capire come i singoli parametri influenzino la visualizzazione e l'applicabilità delle tecniche N.D.T. sopra citate. Su alcuni provini è stata eseguita la prova meccanica Drop Weight Test secondo ASTM D7136 per correlare le aree di delaminazione indotte e la sensibilità di ogni singolo metodo, visualizzando così la criticità indotta dagli urti con bassa energia di impatto (BVID Barely Invisible Impact)di cui i materiali compositi soffrono durante la "service life". A conclusione del lavoro si potrà comprendere come solo l'analisi con più metodi in parallelo permetta di ottenere una adeguata Probability Of Detection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi approfondisce lo studio della cinta muraria di Rimini, elemento importantissimo per la comprensione della forma urbana e la conoscenza della storia della città. Nella fase iniziale è stata svolta la ricerca bibliografica e archivistica, cercando di capire le motivazioni e le vicende che hanno portato, in più tappe, alla definizione e all’evoluzione del complesso sistema fortificato. Nella seconda fase del lavoro si è studiato il contesto urbano e paesaggistico ed è stato elaborato un masterplan, avente come obiettivo principale la messa a sistema delle risorse storico-culturali e ambientali della città e i suoi spazi collettivi. In seguito si è approfondito lo studio relativo alla sistemazione architettonica e paesaggistica di due specifici ambiti del masterplan: i giardini delle mura di San Giuliano e l’area dell’anfiteatro romano. Procedendo dalla grande scala al dettaglio, sono state studiate le tecniche costruttive e le tipologie ricorrenti dei principali elementi architettonici della cinta muraria, che testimoniano l’evoluzione stessa dell’architettura militare tra XIV e XV secolo. La fase conclusiva dello studio riguarda in primo luogo la conoscenza dello stato di conservazione e dei principali fenomeni di degrado, e in secondo luogo l’elaborazione di un progetto di conservazione relativo ai due tratti del sistema analizzati e di un più generale piano di manutenzione programmata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel presente elaborato si è affrontato il tema dell’utilizzo di biogas per la produzione di energia elettrica e termica; in primo luogo è stata fatta una panoramica sulla diffusione degli impianti di digestione anaerobica in Europa e in Italia, con particolare attenzione alla logica degli incentivi volti alla promozione delle fonti rinnovabili. Il biogas presenta infatti il duplice vantaggio di inserirsi sia nell’ottica del “Pacchetto Clima-Energia” volto alla riduzione di consumi energetici da fonti fossili, sia nella migliore gestione dei rifiuti organici volta alla riduzione del conferimento in discarica. L’allineamento degli incentivi italiani con quelli europei, prevista dal Decreto Ministeriale 6 luglio 2012, presuppone un’espansione del settore biogas più oculata e meno speculativa di quella degli ultimi anni: inoltre la maggiore incentivazione all’utilizzo di rifiuti come materia prima per la produzione di biogas, comporta l’ulteriore vantaggio di utilizzare, per la produzione di energia e compost di qualità, materia organica che nel peggiore dei casi sarebbe inviata in discarica. Il progetto oggetto di studio nasce dalla necessità di trattare una quantità superiore di Frazione Organica di Rifiuti Solidi Urbani da R.D, a fronte di una riduzione drastica delle quantità di rifiuti indifferenziati conferiti ai siti integrati di trattamento di rifiuti non pericolosi. La modifica nella gestione integrata dei rifiuti prevista dal progetto comporta un aumento di efficienza del sito, con una drastica riduzione dei sovvalli conferiti a discariche terze, inoltre si ha una produzione di energia elettrica e termica annua in grado di soddisfare gli autoconsumi del sito e di generare un surplus di elettricità da cedere in rete. Nel contesto attuale è perciò conveniente predisporre nei siti integrati impianti per il trattamento della FORSU utilizzando le Migliori Tecniche Disponibili proposte dalle Linee Guida Italiane ed Europee, in modo tale da ottimizzare gli aspetti ambientali ed economici dell’impianto. Nell’elaborato sono stati affrontati poi gli iter autorizzativi necessari per le autorizzazioni all’esercizio ed alla costruzione degli impianti biogas: a seguito di una dettagliata disamina delle procedure necessarie, si è approfondito il tema del procedimento di Valutazione di Impatto Ambientale, con particolare attenzione alla fase di Studio di Impatto Ambientale. Inserendosi il digestore in progetto in un sito già esistente, era necessario che il volume del reattore fosse compatibile con l’area disponibile nel sito stesso; il dimensionamento di larga massima, che è stato svolto nel Quadro Progettuale, è stato necessario anche per confrontare le tipologie di digestori dry e wet. A parità di rifiuto trattato il processo wet richiede una maggiore quantità di fluidi di diluizione, che dovranno essere in seguito trattati, e di un volume del digestore superiore, che comporterà un maggiore dispendio energetico per il riscaldamento della biomassa all’interno. È risultata perciò motivata la scelta del digestore dry sia grazie al minore spazio occupato dal reattore, sia dal minor consumo energetico e minor volume di reflui da trattare. Nella parte finale dell’elaborato sono stati affrontati i temi ambientali,confrontando la configurazione del sito ante operam e post operam. È evidente che la netta riduzione di frazione indifferenziata di rifiuti, non totalmente bilanciata dall’aumento di FORSU, ha consentito una riduzione di traffico veicolare indotto molto elevato, dell’ordine di circa 15 mezzi pesanti al giorno, ciò ha comportato una riduzione di inquinanti emessi sul percorso più rilevante per l’anidride carbonica che per gli altri inquinanti. Successivamente è stata valutata, in modo molto conservativo, l’entità delle emissioni ai camini dell’impianto di cogenerazione. Essendo queste l’unico fattore di pressione sull’ambiente circostante, è stato valutato tramite un modello semplificato di dispersione gaussiana, che il loro contributo alla qualità dell’aria è generalmente una frazione modesta del valore degli SQA. Per gli ossidi di azoto è necessario un livello di attenzione superiore rispetto ad altri inquinanti, come il monossido di carbonio e le polveri sottili, in quanto i picchi di concentrazione sottovento possono raggiungere frazioni elevate (fino al 60%) del valore limite orario della qualità dell’aria, fissato dal D.Lgs 155/2010. Infine, con riferimento all’ energia elettrica producibile sono state valutate le emissioni che sarebbero generate sulla base delle prestazioni del parco elettrico nazionale: tali emissioni sono da considerare evitate in quanto l’energia prodotta nel sito in esame deriva da fonti rinnovabili e non da fonti convenzionali. In conclusione, completando il quadro di emissioni evitate e indotte dalla modifica dell’impianto, si deduce che l’impatto sull’ambiente non modificherà in maniera significativa le condizioni dell’aria nella zona, determinando una variazione percentuale rispetto agli inquinanti emessi a livello regionale inferiore all’1% per tutti gli inquinanti considerati (CO, PM10, NOX, NMCOV). Il vantaggio più significativo riguarda una riduzione di emissioni di CO2 dell’ordine delle migliaia di tonnellate all’anno; questo risultato è importante per la riduzione di emissione dei gas serra in atmosfera e risulta in accordo con la logica dell’utilizzo di biomasse per la produzione di energia. Dal presente elaborato si evince infine come l’utilizzo del biogas prodotto dalla digestione anaerobica della Frazione Organica dei Rifiuti Solidi Urbani non comporti solo un vantaggio dal punto di vista economico, grazie alla presenza degli incentivi nazionali, ma soprattutto dal punto di vista ambientale, grazie alla riduzione notevole dei gas serra in atmosfera, in accordo con gli obiettivi europei e mondiali, e grazie al recupero di rifiuti organici per la produzione di energia e compost di qualità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La specificità dell'acquisizione di contenuti attraverso le interfacce digitali condanna l'agente epistemico a un'interazione frammentata, insufficiente da un punto di vista computazionale, mnemonico e temporale, rispetto alla mole informazionale oggi accessibile attraverso una qualunque implementazione della relazione uomo-computer, e invalida l'applicabilità del modello standard di conoscenza, come credenza vera e giustificata, sconfessando il concetto di credenza razionalmente fondata, per formare la quale, sarebbe invece richiesto all'agente di poter disporre appunto di risorse concettuali, computazionali e temporali inaccessibili. La conseguenza è che l'agente, vincolato dalle limitazioni ontologiche tipiche dell'interazione con le interfacce culturali, si vede costretto a ripiegare su processi ambigui, arbitrari e spesso più casuali di quanto creda, di selezione e gestione delle informazioni che danno origine a veri e propri ibridi (alla Latour) epistemologici, fatti di sensazioni e output di programmi, credenze non fondate e bit di testimonianze indirette e di tutta una serie di relazioni umano-digitali che danno adito a rifuggire in una dimensione trascendente che trova nel sacro il suo più immediato ambito di attuazione. Tutto ciò premesso, il presente lavoro si occupa di costruire un nuovo paradigma epistemologico di conoscenza proposizionale ottenibile attraverso un'interfaccia digitale di acquisizione di contenuti, fondato sul nuovo concetto di Tracciatura Digitale, definito come un un processo di acquisizione digitale di un insieme di tracce, ossia meta-informazioni di natura testimoniale. Tale dispositivo, una volta riconosciuto come un processo di comunicazione di contenuti, si baserà sulla ricerca e selezione di meta-informazioni, cioè tracce, che consentiranno l'implementazione di approcci derivati dall'analisi decisionale in condizioni di razionalità limitata, approcci che, oltre ad essere quasi mai utilizzati in tale ambito, sono ontologicamente predisposti per una gestione dell'incertezza quale quella riscontrabile nell'istanziazione dell'ibrido informazionale e che, in determinate condizioni, potranno garantire l'agente sulla bontà epistemica del contenuto acquisito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro sono state studiate diverse miscele di conglomerato bituminoso riciclato a freddo, nelle quali si è inserito polverino di gomma proveniente da riciclaggio di pneumatici dismessi. Lo scopo è stato quello di valutare l’effetto del polverino di gomma all’interno di miscele, contenenti il 100% di fresato, confezionate a freddo con emulsione di bitume e cemento, analizzandone gli effetti sulla lavorabilità, sulla resistenza a trazione indiretta, sui moduli di rigidezza e sulle resistenze a fatica. Nel capitolo primo è introdotto il concetto di sviluppo sostenibile con particolare attenzione al campo delle pavimentazioni stradali. Sono analizzati i più recenti dati riguardanti la produzione di rifiuti di demolizione e ricostruzione in Europa e in Italia. Segue una descrizione del materiale di risulta da scarifica delle pavimentazioni stradali, dei pneumatici e delle modalità di recupero degli stessi. Nel capitolo secondo sono riportati i principali riferimenti legislativi a livello comunitario, nazionale e locale riguardanti le attività coinvolte nel processo di riciclaggio dei rifiuti per la loro utilizzazione nella costruzione di opere stradali, accompagnati dai principali documenti ausiliari, quali sentenze e disposizioni applicative a completamento del suddetto quadro normativo. Nel capitolo terzo vengono descritte le principali tecniche di riciclaggio del fresato. Particolare attenzione viene posta nella descrizione delle procedure operative e dei macchinari adottati nelle operazioni di riciclaggio in sito. Infine vengono valutati i pregi e i difetti delle tecniche di riciclaggio a freddo analizzando i vantaggi economici ed ambientali rispetto a quelle tradizionali a caldo. Nel capitolo quarto sono analizzate le singole costituenti della miscela: Emulsione Bituminosa, Cemento, Aggregati, Polverino di Gomma e Acqua, definendone per ciascuna il ruolo e le caratteristiche meccaniche e fisiche che le contraddistinguono. Nel capitolo quinto, viene sviluppato il programma sperimentale, sono definiti gli obbiettivi e descritte in modo approfondito le cinque fasi nelle quali si articola. Nella fase uno, vengono introdotte le miscele che dovranno essere studiate. Segue una caratterizzazione dei principali costituenti alla base di tali miscele: fresato , polverino di gomma, cemento, filler,emulsione bituminosa. Nella fase due avviene il confezionamento dei provini mediante compattazione con pressa giratoria. Al termine della realizzazione dei campioni, vengono descritte e analizzate le proprietà volumetriche del materiale quali il grado di addensamento, la densità, la lavorabilità. Nelle fasi tre, quattro e cinque, vengono eseguiti in successione test per la valutazione delle resistenze a trazione indiretta ITS, test per la determinazione dei moduli di rigidezza ITSM ed infine test per la valutazione delle durate dei materiali a fatica ITFT. Per ognuno dei test, sono descritte le procedure operative sulla base delle normative di riferimento vigenti. Segue l’analisi dei risultati di ciascuna prova e la valutazione dell’effetto che i singoli costituenti hanno sulle caratteristiche meccaniche della miscela.