486 resultados para distribuzioni equazioni differenziali alle derivate parziali operatore delle onde
Resumo:
Questa tesi propone una riflessione critica sulle pratiche della pianificazione urbanistica attraverso l’analisi di un significativo caso di studio, costituito dalla Darsena di Città a Ravenna. Questo approccio di ricerca è dal nostro punto di vista una conseguenza della difficoltà di governare le attuali problematiche di sviluppo dello spazio urbano attraverso gli strumenti tradizionali della pianificazione e dell’urbanistica. La tesi ha lo scopo di far emergere temi di dibattito attuale sulle aree di sviluppo urbano, in particolare la complessità dei compiti decisionali riguardanti aree oggetto di interventi di rigenerazione urbana. La definizione “area di sviluppo urbano” si pone come prodotto di un’attiva collaborazione tra Stato, mercato e società civile e costituisce dal nostro punto di vista una vera “questione sociale”. Prenderemo come riferimento il caso della Darsena di Città di Ravenna, oggetto della sperimentazione urbanistica degli ultimi trenta anni, sul quale diversi “stili” e strumenti di pianificazione si sono confrontati, nell’intento di guidare un processo di riqualificazione che ha portato ad oggi a risultati concreti assai limitati. Attraverso gli strumenti consultabili e un rapido sopralluogo infatti, possiamo intuire immediatamente come la realizzazione di interventi sull’area si limiti a casi localizzati come la riqualificazione della raffineria Almagià, la nuova sede dell’autorità portuale e l’ex molino Pineta, oltre agli interventi residenziali riconducibili all’edificio progettato dall’architetto Cino Zucchi e ai nuovi isolati attorno alla parte centrale di via Trieste. Le problematiche di fondo che hanno creato conflitti sono molte, dall’elevata divisione proprietaria alla cesura del comparto con il centro storico data dalla barriera ferroviaria, alla questione relativa al risanamento delle acque e dei suoli, solo per citare le più evidenti. Siamo quindi interessati a capire il problema dal punto di vista del processo di pianificazione per poi concentrare la nostra riflessione su possibili soluzioni che possano risolvere i conflitti che sembrano all’oggi non trovare una risposta condivisa. Per meglio comprendere come rapportarci al caso specifico si è cercato di analizzare alcuni aspetti teorici fondanti del “procedimento archetipico” di pianificazione urbana in contrapposizione con metodi di pianificazione “non convenzionali”. Come lo studio dei primi ci ha permesso di capire come si è arrivati all’attuale situazione di stallo nella trasformazione urbana della Darsena di Città, i secondi ci hanno aiutato a comprendere per quali ragioni i piani urbanistici di tipo “tradizionale” pensati per la Darsena di Città non sono stati portati a realizzazione. Consci che i fattori in gioco sono molteplici abbiamo deciso di affrontare questa tesi attraverso un approccio aperto al dialogo con le reali problematiche presenti sul territorio, credendo che la pianificazione debba relazionarsi con il contesto per essere in grado di proporre e finalizzare i suoi obiettivi. Conseguenza di questo è per noi il fatto che una sensibile metodologia di pianificazione debba confrontarsi sia con i processi istituzionali sia con le dinamiche e i valori socio-culturali locali. In generale gerarchie di potere e decisioni centralizzate tendono a prevalere su pratiche decisionali di tipo collaborativo; questa tesi si è proposta quindi l’obiettivo di ragionare sulle une e sulle altre in un contesto reale per raggiungere uno schema di pianificazione condiviso. La pianificazione urbanistica è da noi intesa come una previsione al futuro di pratiche di accordo e decisione finalizzate a raggiungere un obiettivo comune, da questo punto di vista il processo è parte essenziale della stessa pianificazione. Il tema è attuale in un contesto in cui l’urbanistica si è sempre confrontata in prevalenza con i temi della razionalizzazione della crescita, e con concetti da tempo in crisi che vanno oggi rimessi in discussione rispetto alle attuali istanze di trasformazione “sostenibile” delle città e dei territori. Potremmo riassumere le nostre riflessioni sull’urbanistica ed i nostri intenti rispetto al piano della Darsena di Città di Ravenna attraverso una definizione di Rem Koolhaas: l’urbanistica è la disciplina che genera potenziale, crea opportunità e causa eventi, mentre l’architettura è tradizionalmente la disciplina che manipola questo potenziale, sfrutta le possibilità e circoscrive. Il percorso di ragionamento descritto in questa tesi intende presentare attraverso alcune questioni significative l’evoluzione dello spazio urbano e delle pratiche di pianificazione, arrivando a formulare un “progetto tentativo” sul territorio della Darsena di Città.
Resumo:
L’imballaggio alimentare si può definire come un sistema coordinato per disporre i beni per il trasporto, la distribuzione, la conservazione, la vendita e l’utilizzo. Uno dei materiali maggiormente impiegati, nell’industria alimentare, per la produzione di imballaggi sono le materie plastiche. Esse sono sostanze organiche derivanti da petrolio greggio, sono composti solidi allo stato finito, ma possono essere modellate allo stato fluido. Un imballaggio alimentare deve svolgere determinate funzioni tra cui: - contenimento del prodotto - protezione del prodotto da agenti esterni - logistica - comunicativa - funzionale - ecologica L'ultimo punto sopracitato è il principale problema delle materie plastiche derivanti dal petrolio greggio. Questi materiali sono difficilmente riciclabili perché spesso un imballaggio è composto da più materiali stratificati o perché si trova a diretto contatto con gli alimenti. Inoltre questi materiali hanno un lungo tempo di degradazione (da 100 a 1000 anni) che ne rendono difficile e costoso lo smaltimento. Per questo nell’ultimo decennio è cominciata la ricerca di un materiale plastico, flessibile alle esigenze industriali e nel contempo biodegradabile. Una prima idea è stata quella di “imitare la natura” cercando di replicare macromolecole già esistenti (derivate da amido e zuccheri) per ottenere una sostanza plastico-simile utilizzabile per gli stessi scopi, ma biodegradabile in circa sei mesi. Queste bioplastiche non hanno preso piede per l’alto costo di produzione e perché risulta impossibile riconvertire impianti di produzione in tutto il mondo in tempi brevi. Una seconda corrente di pensiero ha indirizzato i propri sforzi verso l’utilizzo di speciali additivi aggiunti in minima misura (1%) ai classici materiali plastici e che ne permettono la biodegradazione in un tempo inferiore ai tre anni. Un esempio di questo tipo di additivi è l’ECM Masterbatch Pellets che è un copolimero di EVA (etilene vinil acetato) che aggiunto alle plastiche tradizionali rende il prodotto finale completamente biodegradabile pur mantenendo le proprie caratteristiche. Scopo di questo lavoro di tesi è stato determinare le modificazioni di alcuni parametri qualitativi di nettarine di Romagna(cv.-Alexa®) confezionate-con-film-plastici-tradizionali-e-innovativi. I campioni di nettarine sono stati confezionati in cestini in plastica da 1 kg (sigillati con un film flow-pack macroforato) di tipo tradizionale in polipropilene (campione denominato TRA) o vaschette in polipropilene additivato (campione denominato BIO) e conservati a 4°C e UR 90-95% per 7 giorni per simulare un trasporto refrigerato successivamente i campioni sono stati posti in una camera a 20°C e U.R. 50% per 4 giorni al fine di simulare una conservazione al punto vendita. Al tempo 0 e dopo 4, 7, 9 e 11 giorni sono state effettuate le seguenti analisi: - coefficiente di respirazione è stato misurata la quantità di CO2 prodotta - indice di maturazione espresso come rapporto tra contenuto in solidi solubili e l’acidità titolabile - analisi di immagine computerizzata - consistenza della polpa del frutto è stata misurata attraverso un dinamometro Texture Analyser - contenuto in solidi totali ottenuto mediante gravimetria essiccando i campioni in stufa sottovuoto - caratteristiche sensoriali (Test Accettabilità) Conclusioni In base ai risultati ottenuti i due campioni non hanno fatto registrare dei punteggi significativamente differenti durante tutta la conservazione, specialmente per quanto riguarda i punteggi sensoriali, quindi si conclude che le vaschette biodegradabili additivate non influenzano la conservazione delle nettarine durante la commercializzazione del prodotto limitatamente ai parametri analizzati. Si ritiene opportuno verificare se il processo di degradazione del polimero additivato si inneschi già durante la commercializzazione della frutta e soprattutto verificare se durante tale processo vengano rilasciati dei gas che possono accelerare la maturazione dei frutti (p.e. etilene), in quanto questo spiegherebbe il maggiore tasso di respirazione e la più elevata velocità di maturazione dei frutti conservati in tali vaschette. Alimentary packaging may be defined as a coordinate system to dispose goods for transport, distribution, storage, sale and use. Among materials most used in the alimentary industry, for the production of packaging there are plastics materials. They are organic substances deriving from crude oil, solid compounds in the ended state, but can be moulded in the fluid state. Alimentary packaging has to develop determinated functions such as: - Product conteniment - Product protection from fieleders agents - logistic - communicative - functional - ecologic This last term is the main problem of plastic materials deriving from crude oil. These materials are hardly recyclable because a packaging is often composed by more stratified materials or because it is in direct contact with aliments. Beside these materials have a long degradation time(from 100 to 1000 years) that make disposal difficult and expensive. For this reason in the last decade the research for a new plastic material is begin, to make industrial demands more flexible and, at the same time, to make this material biodegradable: At first, the idea to “imitate the nature” has been thought, trying to reply macromolecules already existents (derived from amid and sugars) to obtain a similar-plastic substance that can be used for the same purposes, but it has to be biodegradable in about six months. These bioplastics haven’t more success bacause of the high production cost and because reconvert production facilities of all over the wolrd results impossible in short times. At second, the idea to use specials addictives has been thought. These addictives has been added in minim measure (1%) to classics plastics materials and that allow the biodegradation in a period of time under three years. An example of this kind of addictives is ECM Masterbatch Pellets which is a coplymer of EVA (Ethylene vinyl acetate) that, once it is added to tradizional plastics, make final product completely biodegradable however maintaining their own attributes. The objective of this thesis work has been to determinate modifications of some Romagna’s Nectarines’ (cv. Alexa®) qualitatives parameters which have been packaged-with traditional and innovative-plastic film. Nectarines’ samples have been packaged in plastic cages of 1 kg (sealed with a macro-drilled flow-pack film) of traditional type in polypropylene (sample named TRA) or trays in polypropylene with addictives (sample named BIO) and conservated at 4°C and UR 90-95% for 7 days to simulate a refrigerated transport. After that, samples have been put in a camera at 20°C and U.R. 50% for 4 days to simulate the conservation in the market point. At the time 0 and after 4, 7, 9 and 11 days have been done the following analaysis: - Respiration coefficient wherewith the amount CO2 producted has been misurated - Maturation index which is expressed as the ratio between solid soluble content and the titratable acidity - Analysis of computing images - Consistence of pulp of the fruit that has been measured through Texture Analyser Dynanometer - Content in total solids gotten throught gravimetry by the drying of samples in vacuum incubator - Sensorial characteristic (Panel Test) Consequences From the gotten results, the two samples have registrated no significative different scores during all the conservation, expecially about the sensorial scores, so it’s possible to conclude that addictived biodegradable trays don’t influence the Nectarines’ conservation during the commercialization of the product qualifiedly to analized parameters. It’s advised to verify if the degradation process of the addicted polymer may begin already during the commercialization of the fruit and in particular to verify if during this process some gases could be released which can accelerate the maturation of fruits (p.e. etylene), because all this will explain the great respiration rate and the high speed of the maturation of fruits conservated in these trays.
Resumo:
Questa relazione finale è stata frutto di un lavoro sperimentale svolto in collaborazione con un’azienda del territorio ed ha avuto come obiettivo principale quello di verificare i parametri qualitativi e compositivi di una nuova tipologia di salume in fase di studio. L’azienda sta studiando una nuova tipologia di “prodotto funzionale” addizionando componenti ad attività nutraceutica al salame ottenuto da sole parti magre di suino. L’intenzione dell’azienda è di arricchire il proprio prodotto con acidi grassi polinsaturi della serie omega-3 (da olio di semi di lino), noti per gli effetti benefici che possono esercitare sulla salute umana. A questo scopo, sul prodotto di nuova formulazione (ed in parallelo sul prodotto a formulazione classica e su un prodotto del tutto simile commercializzato da un’altra azienda) sono state effettuate sia la determinazione della percentuale lipidica, al fine di individuare il quantitativo totale di grasso, che una caratterizzazione gascromatografica del profilo quali-quantitativo in acidi grassi, analsi fondamentale per verificare la conformità con i requisiti indicati dal Reg. 1924/06, e successive modifiche, previsti per le indicazioni da inserire in etichetta (claims). Inoltre, è stato importante controllare che la concentrazione voluta di acido alfa-linolenico si mantenga tale durante tutto il periodo di shelf-life del prodotto (45 gg), perciò per soddisfare quest’ultima finalità, le analisi sono state eseguite sia all’inizio (T0) che alla fine (T1) della vita commerciale del prodotto. E’ apparso poi fondamentale monitorare un possibile decadimento/modifica della qualità organolettica del prodotto di nuova formulazione, a causa del possibile aumento di ossidabilità della frazione lipidica causata da una maggiore presenza di acidi grassi polinsaturi; ed infine, con l’intento di verificare se la nuova formulazione potesse comportare una variazione significativa delle caratteristiche sensoriali del prodotto, sono stati condotti un test descrittivo quantitativo (QDA), in grado di descrivere il profilo sensoriale del prodotto ed un test discriminante qualitativo (metodo triangolare) capace di valutare l’eventuale comparsa di cambiamenti in seguito alle modifiche apportate al prodotto; per ultimo è stato poi eseguito un test affettivo quantitativo (test di preferenza, condotto su scala di laboratorio) in grado fornire informazioni sul gradimento e di evidenziare i principali vettori che guidano le scelte dei consumatori. I risultati delle analisi chimiche e sensoriali, eseguite per soddisfare tali richieste, hanno evidenziato come il salume presenti un quantitativo di tali acidi grassi polinsaturi in linea con il claim “Alimento fonte di acidi grassi omega-3”, (requisiti indicati dal Reg. 1924/06 e successive modifiche), risultato confermato sia all’inizio che al termine della vita commerciale del prodotto (pari a circa 45 giorni). Inoltre, esso risulta essere piuttosto interessante dal punto di vista nutrizionale, poiché caratterizzato da un contenuto di grasso per la categoria dei salumi, relativamente limitato, pari a circa il 15%, con percentuali più favorevoli in acidi grassi insaturi. L’analisi del profilo sensoriale condotta ad inizio shelf-life ha invece evidenziato come questa tipologia di prodotto sia caratterizzata sia al gusto che all’olfatto da note più sapide e speziate , oltre ad una maggiore consistenza della fetta, rispetto agli altri campioni analizzati, mentre i risultati relativi al termine della shelf-life hanno evidenziato come esso tenda ad essere soggetto ad alterazioni sensoriali rilevabili proprio al termine della fase di conservazione dovute nello specifico alla formazione di composti responsabili dell’odore di rancido. I test discriminanti, condotti con giudici non allenati, non hanno invece fatto registrare differenze sensoriali significative tra il prodotto con formulazione classica e quello di nuova formulazione, confrontati ad inizio e a fine shelf-life. Riassumendo, dai risultati ottenuti da questo lavoro sperimentale, il prodotto di nuova formulazione, arricchito in acidi grassi polinsaturi della serie omega-3, risulta essere in linea con il claim “Alimento fonte di acidi grassi omega-3”, presenta in generale un contenuto di grasso totale inferiore a quello di altre tipologie di salumi ed un rapporto più favorevole tra acidi grassi insaturi e saturi, per questo può essere considerato un prodotto interessante dal punto di vista della salute e della nutrizione. Proprio per la sua formulazione più ricca in acidi grassi polinsaturi, tende però a fine shelf-life a presentare una leggera nota di rancido, riconducibile ad una maggiore ossidabilità della frazione lipidica. Tale variazione sensoriale è risultata comunque percepita solo da un panel allenato, mentre un test di tipo discriminante, condotto con giudici non allenati, non ha messo in luce differenze significative tra il salume di nuova formulazione e quello con formulazione classica né all’inizio, né al termine della vita commerciale del prodotto.
Resumo:
Nell’ultimo decenno si è assisitito ad una frenetica evoluzione delle tecnologie di connessione e trasferimento dati, dagli impianti di fibra ottica sempre più diffusi e performanti, alle varie tecnologie mobile UMTS e LTE. Tutto ciò ha permesso a sempre più persone di poter spendere una maggiore fetta del proprio tempo sulla rete sia per svago che per lavoro. Questo ha portato col tempo l’utente interattivo alla ricerca di servizi remoti che prima usufruiva in locale, sia per motivi di portabilità e di interconnessione, sia per una semplice questione di sincronizzazione fra i vari dispositivi posseduti. Il presente progetto di tesi si pone come obiettivo di indagare con occhio ingegneristico all’evoluzione della struttura del web fino ad identificare e analizzare l’attuale necessità di poter avere in rete tutti quei servizi anche completi e strutturalmente complessi che prima si aveva sul proprio desktop; tutto ciò attraverso l’esempio di un nuovo linguaggio di sviluppo per applicazioni web strutturate proposto da Google: DART. In questa analisi non si potrà prescindere dallo studio attento della tecnologia che sin dagli inizi della rete ha fatto da struttura al web ovvero l’Html e il suo ultimo standard Hmtl5. Nella prima parte verrà mostrata, attraverso un breve percorso, la nascita e lo sviluppo del web, sino ai giorni nostri. Si effettuerà quindi una panoramica, rivisitando tutti più importanti passi che hanno portato la rete internet ad essere ciò che oggi utilizziamo, ponendo una particolare attenzione alle attuali esigenze di progettazione della struttura dei servizi web. Nel secondo capitolo viene introdotta la tecnologia a base del web, l’Html; attraverso una breve analisi dell’evoluzione di quest’ultima si arriverà sino all’attuale HTML5 e alle funzionalità offerte nell’ottica della programmazione web strutturata. Nel terzo capitolo si analizzerà in maniera più approfondita la necessità di un web strutturato e le potenzialità del progetto Dart attraverso alcuni esempi esplicativi. Infine si trarranno alcune conclusioni sull’attuale situazione del web, sulla necessità di un web strutturato e sulla possibilità di riuscita del progetto Dart.
Resumo:
Lo sviluppo negli ultimi decenni di strumentazioni sempre più pratiche, versatili, veloci ed economicamente accessibili, ha notevolmente incrementato la capacità delle aziende, in particolar modo quelle operanti nel settore dell'industria alimentare, nel cogliere le potenzialità di una tecnologia che applica rigore scientifico a una materia a lungo considerata liminale e di secondaria rilevanza, quale quella cromatica. A fronte di ciò, si è ritenuto opportuno introdurre strumenti di misura formalizzati a livello internazionale, atti a individuare e verificare parametri di colore, i quali attestassero la qualità della materia prima utilizzata, nonché riconducibili a una tecnologia di produzione di massa. L’attuale progetto deriva dalla necessità di un’azienda produttrice di concentrati in pasta e semi-lavorati in polvere per la gelateria e la pasticceria, di introdurre un sistema di misurazione oggettiva del colore, che vada a sostituirsi a una valutazione soggettiva, a lungo ritenuta come unico metodo valido di analisi. Il ruolo rivestito all’interno di tale azienda ha consentito, grazie anche al supporto fornito dal Controllo Qualità, la realizzazione di un elaborato finale di sintesi, contenente i risultati delle analisi colorimetriche condotte su alcune paste concentrate. A partire dunque dalla letteratura scientifica elaborata in materia, si è proceduto inizialmente, alla realizzazione di una parte generale riguardante la descrizione del colore, delle sue proprietà e manifestazioni, e dei metodi di misurazione, ripercorrendo le tappe dalla nascita delle prime teorie fino all’adozione di uno spazio di colore universale; una seconda sperimentale, in cui si elaborano- tramite software statistici (Anova , Spectra Magic Nx)- i parametri colorimetrici e il pH dei singoli campioni. In particolare, la determinazione del colore su paste concentrate, ha permesso di valutare in maniera oggettiva le variazioni di colore in termini di coordinate L*, a*, b*, che avvengono durante il periodo di conservazione (24-36 mesi). Partendo dai dati oggettivi di colore, sono state definite semplici equazioni che descrivono l'andamento dei parametri in funzione dei mesi di conservazione e del pH del prodotto. Nell’ottica del miglioramento della gestione della qualità delle aziende specializzate nella produzione di semilavorati-concentrati per le gelaterie, il presente lavoro ha fornito uno spunto per la realizzazione e l’applicazione di un sistema di controllo del colore durante la conservazione del prodotto; ha anche permesso di definire le linee per un sistema di analisi colorimetrica utile alla messa a punto di un database aziendale comprensivo d’indici, stime e annotazioni. Tale database dovrà essere mirato all’ottenimento di un sempre più alto livello di qualità del prodotto, suggerendo allo stesso tempo possibili interventi correttivi (maggior standardizzazione del colore e possibile definizione di un adeguato intervallo di tolleranza), ma anche a un miglioramento nella gestione di problematiche in fase di produzione e quindi, l’incremento della capacità produttiva con conseguente riduzione dei tempi di evasione degli ordini. Tale contributo ha consentito a delineare le future prospettive di sviluppo favorendo l’implementazione (nella realtà aziendale) di un approccio strumentale e quindi oggettivo, in relazione alle più comuni problematiche di tipo colorimetrico, al fine di migliorare il valore qualitativo del prodotto.
Resumo:
La tesi si propone di fornire una introduzione completa ai fondamenti della teoria delle frazioni continue (numeriche). Questo da' adito anche alla illustrazione e alla soluzione di vari problemi specialmente nell'ambito della teoria dei numeri che, in vari modi, si rifanno alle frazioni continue.
Resumo:
Lo studio è stato effettuato nell’ambito del progetto Theseus; il mio lavoro mirava a valutare la risposta dei popolamenti meio e macrobentonici alla presenza di diverse tipologie di strutture di difesa costiera. Sono stati presi in esame a tal fine oltre al sito di campionamento di Cesenatico sud, con presenza di barriere emerse anche il sito di Cesenatico nord, con presenza di barriere semisommerse, per poter effettuare un confronto. Il campionamento è stato fatto nella zona intertidale dove sono stati prese oltre alle variabili biotiche di macro e meiofauna anche quelle abiotiche (granulometria e sostanza organica). Sono stati scelti sei transetti in maniera random, 3 livelli di marea fissi l’alta, la media e la bassa (H, M, L) e due repliche (A e B) per un totale di 36 campioni per ogni variabile presa in esame. Dopo la fase di trattamento dei campioni in laboratorio state fatte in seguito analisi univariate effettuando l’ANOVA sia sui dati biotici di abbondanza numero di taxa e indice di diversità di Shannon di macro e meiobenthos sia sulle singole variabili ambientali di TOM, mediana, classazione, shell mean (capulerio). Sono state fatte anche analisi multivariate; per quanto riguarda i dati biotici sono state effettuate analisi di MDS e PERMANOVA e per quanto riguarda le variabili dei dati abiotici è stata fatta l’analisi della PCA. Infine per effettuare un confronto tra le variabili ambientali e quelle biotiche è stata fatta anche l’analisi BIOENV. Dai risultati sono emerse delle differenze sostanziali tra i due siti con maggiore abbondanza e diversità nel sito di Cesenatico nord rispetto a quello sud. Sono state evidenziate anche differenze nei livelli di marea con una maggiore abbondanza nel livello di bassa marea rispetto alla media e all’alta soprattutto per quanto riguarda il sito di Cesenatico sud. Dal confronto tra i dati ambientali e quelli biotici ne è risultato che la variabile più strettamente correlata è quella del capulerio sia per quanto riguarda il pattern di distribuzione della macrofauna che della meio. Tale lavoro ha messo in evidenza come i popolamenti rispondano in maniera differente alla presenza di differenti barriere di difesa costiera che anche se simili nella loro struttura presentano dei differenti effetti che hanno sull’azione del moto ondoso, circolazione dell’acqua e trasporto di sedimenti portando così a differenti risposte nei patterns di distribuzione dei popolamenti.
Resumo:
Le grotte marine sono habitat molto particolari che presentano situazioni molto diverse da quelle riscontrabili nell’ambiente esterno. La variabilità nella struttura geomorfologica, la topografia, la profondità, l’orientamento e l’idrodinamismo rappresentano una vasta gamma di situazioni che consentono la presenza di popolamenti caratteristici, la cui unicità determina l’importanza della loro salvaguardia. La composizione delle comunità dipende fortemente dall'arrivo dei propaguli dall'esterno, e non solo dalla riproduzione di adulti presenti. Quindi, per determinare la struttura e la dinamica delle popolazioni marine, è di fondamentale importanza comprendere i processi che agiscono sul reclutamento. In particolare per gli organismi sessili la fase larvale rappresenta l'unico stadio di dispersione. Lo scopo di questo lavoro è analizzare il reclutamento dei popolamenti bentonici sulle pareti laterali e sulla volta della grotta sottomarina della Colombara, nell’area marina protetta di Portofino (Genova), per valutare la loro diversità specifica, abbondanza e distribuzione. Per far ciò sono stati posti 14 pannelli quadrati in forex PVC all’interno della grotta (8 sulla volta e 6 sulle pareti laterali) per un periodo di tempo di venti mesi. L’abbondanza degli organismi è stata stimata in termini di ricoprimento percentuale utilizzando un reticolo di 400 sottoquadrati da 1 cm². Le possibili differenze tra le strutture dei popolamenti, l’abbondanza delle specie e gli indici di diversità tra parete e volta della grotta sono state testate con l’analisi della varianza basata su permutazioni (PERMANOVA) utilizzando il software PRIMER 6. Dai risultati ottenuti sono emerse differenze qualitative e quantitative nella distribuzione dei popolamenti fra la volta e le pareti della grotta. Analizzando le singole specie, è possibile osservare come molte di queste tendano a reclutare maggiormente sulla volta rispetto alle pareti. In generale, la distribuzione degli organismi dipende, oltre che dai più conosciuti gradienti ambientali (idrodinamismo, luce ecc) dai processi ecologici. Considerando che i fattori ambientali ed ecologici interagiscono nel definire la struttura dei popolamenti e sono interdipendenti tra loro, possiamo ipotizzare che le distribuzioni spaziali osservate per le diverse specie dipendano in gran parte dall’ecologia larvale, che porta ad un più elevato tasso di reclutamento sulla volta piuttosto che sulle pareti della grotta.
Resumo:
La distribuzione delle Terre Rare (REE) nell’ambiente deriva da una serie di processi interagenti all’interno di un sistema dinamico che include il ciclo idrologico, attività geologiche, fisiche – chimiche (weathering), fenomeni atmosferici e attività umane. Queste contribuiscono alla dispersione superficiale di tutti gli elementi e in particolare di quelli in traccia tra cui i lantanidi (La, Ce, Pr, Nd, Pm, Sm, Eu, Gd, Tb, Dy, Tm, Ho, Er, Yb e Lu) che si ritrovano un po’ ovunque in tutte le matrici, frazionate in modo diverso. L’acqua destinata al consumo alimentare è una di queste. Prelevata di solito da acquiferi profondi, superficiali o da pozzi posti in differenti contesti litologici, può essere soggetta a modifiche importanti delle proprietà fisiche-chimiche e microbiologiche. Più acque minerali relative a marche differenti e conservate in bottiglie di vetro e PET messe a confronto, hanno dimostrato che il vetro è in grado di rilasciare numerosi elementi in funzione della tipologia di acqua contenuta, del tipo di vetro (chiaro o colorato) e delle condizioni predisponenti il rilascio (proprietà intrinseche dell’elemento, fattori esterni quali fonti di calore, ecc.). Terre rare come Ce, La, Pr, Nd, Sm, Eu, Er, Dy, Y e Sc possono essere ceduti in modo differenziale nell’acqua delle bottiglie. In più casi l’arricchimento è evidenziato da acque nelle quali è stata aggiunta anidride carbonica, mentre non si notano cambiamenti eccessivi nel corrispettive naturali. Per i contenitori in PET si registra un marcato rilascio di antimonio (Sb), ampiamente usato sotto forma di triossido di antimonio nel ciclo produttivo delle plastiche. Rispetto alle acque minerali, quelle di rubinetto soffrono gli effetti dei trattamenti di potabilizzazione e dell’interazione con il sistema di distribuzione idrico. La distribuzione dei lantanidi è influenzata dalle condizioni redox (particolarmente per Ce, ed Eu) e dalla relativa capacità di essere complessati e, quindi, mobilizzati in maniera differente. Nonostante il forte impatto delle attività umane, i valori anomali di alcuni (Gd, Nd) sono nell’ordine dei ng/L, come del resto per tutti gli altri e non costituiscono un pericolo per la salute umana. Al fattore geogenico si attribuiscono i tenori maggiori (ΣREE >1000ng/L) riscontrati in Sardegna.
Resumo:
I sistemi di versionamento moderni quali "git" o "svn" sono ad oggi basati su svariati algoritmi di analisi delle differenze (detti algoritmi di diffing) tra documenti (detti versioni). Uno degli algoritmi impiegati con maggior successo a tal proposito è il celebre "diff" di Unix. Tale programma è in grado di rilevare le modifiche necessarie da apportare ad un documento al fine di ottenerne un altro in termini di aggiunta o rimozione di linee di testo. L'insieme di tali modifiche prende nome di "delta". La crescente richiesta e applicazione dei documenti semi-strutturati (ed in particolar modo dei documenti XML) da parte della comunità informatica soprattutto in ambito web ha motivato la ricerca di algoritmi di diffing più raffinati che operino al meglio su tale tipologia di documenti. Svariate soluzioni di successo sono state discusse; algoritmi ad alte prestazioni capaci di individuare differenze più sottili della mera aggiunta o rimozione di testo quali il movimento di interi nodi, il loro riordinamento finanche il loro incapsulamento e così via. Tuttavia tali algoritmi mancano di versatilità. L'incapsulamento di un nodo potrebbe essere considerata una differenza troppo (o troppo poco) generale o granulare in taluni contesti. Nella realtà quotidiana ogni settore, pubblico o commerciale, interessato a rilevare differenze tra documenti ha interesse nell'individuarne sempre e soltanto un sottoinsieme molto specifico. Si pensi al parlamento italiano interessato all'analisi comparativa di documenti legislativi piuttosto che ad un ospedale interessato alla diagnostica relativa alla storia clinica di un paziente. Il presente elaborato di tesi dimostra come sia possibile sviluppare un algoritmo in grado di rilevare le differenze tra due documenti semi-strutturati (in termini del più breve numero di modifiche necessarie per trasformare l'uno nell'altro) che sia parametrizzato relativamente alle funzioni di trasformazione operanti su tali documenti. Vengono discusse le definizioni essenziali ed i principali risultati alla base della teoria delle differenze e viene dimostrato come assunzioni più blande inducano la non calcolabilità dell'algoritmo di diffing in questione.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
L'elaborato consiste nella prima traduzione italiana delle tre opere cardine dell'Ars Analytica di François Viète. L’obiettivo di questa tesi è quello di condurre un’analisi, attraverso la traduzione, il commento e l’interpretazione di Isagoge in Artem analyticem, Ad Logisticem Speciosam Notae Priores, Zeteticorum libri quinque, testi fondamentali per lo sviluppo dell’algebra come disciplina autonoma e obiettiva, prestando particolare attenzione anche alle interpretazioni geometriche proposte dagli allievi di Viète. Infine vengono analizzati gli zetetici, cioè i problemi, riguardanti la risoluzione delle equazioni diofantee di secondo e terzo grado alla luce delle osservazioni riportate da Fermat nella sua copia dell’Aritmetica (edizione di Claude Gaspard Bacheti, 1621). Fermat, infatti propone un’analisi del testo diofanteo che va al di là di una semplice traduzione, ottenendo risultati che sono ben noti agli storici della matematica e ai matematici.
Resumo:
In questa tesi viene descritto il funzionamento delle sorgenti di luce LED (Light Emitting Diode) a confinamento quantico, che rappresentano la nuova frontiera dell'illuminazione ad alta efficienza e durata. Nei capitoli introduttivi è descritta brevemente la storia dei LEDs dalla loro invenzione agli sviluppi più recenti. Il funzionamento di tali dispositivi fotonici è spiegato a partire dal concetto di sorgente di luce per elettroluminescenza, con particolare riferimento alle eterostrutture a confinamento quantico bidimensionale (quantum wells). I capitoli centrali riguardano i nitruri dei gruppi III-V, le cui caratteristiche e proprietà hanno permesso di fabbricare LEDs ad alta efficienza e ampio spettro di emissione, soprattutto in relazione al fatto che i LEDs a nitruri dei gruppi III-V emettono luce anche in presenza di alte densità di difetti estesi, nello specifico dislocazioni. I capitoli successivi sono dedicati alla presentazione del lavoro sperimentale svolto, che riguarda la caratterizzazione elettrica, ottica e strutturale di LEDs a confinamento quantico basati su nitruri del gruppo III-V GaN e InGaN, cresciuti nei laboratori di Cambridge dal Center for Gallium Nitride. Lo studio ha come obiettivo finale il confronto dei risultati ottenuti su LEDs con la medesima struttura epitassiale, ma differente densità di dislocazioni, allo scopo di comprendere meglio il ruolo che tali difetti estesi ricoprono nella determinazione dell'effcienza delle sorgenti di luce LED. L’ultimo capitolo riguarda la diffrazione a raggi X dal punto di vista teorico, con particolare attenzione ai metodi di valutazioni dello strain reticolare nei wafer a nitruri, dal quale dipende la densità di dislocazioni.
Resumo:
In un'epoca storica nella quale si va incontro ad un tasso di guasto sempre maggiore a causa dell'invecchiamento, diventa necessaria l'adozione di sistemi diagnostici in grado di stimare e prolungare l'esatto istante in cui si avrà il guasto. Per fare questo generalmente si valuta l'attività di scariche parziali in un sistema isolante e si cerca di frenarla. In questo lavoro innovativo però, la scelta di base non è quella di frenare l'attività di scariche, ma di limitarla alla base, agendo sulla natura fisica dei processi associati alle scariche.
Resumo:
La presenza di materia oscura nell'universo venne ipotizzata negli anni '30 a seguito di alcune anomalie nei risultati sperimentali ottenuti in astrofisica e cosmologia. La distribuzione di materia ottenuta non concordava infatti con i dati provenienti dalle osservazioni astronomiche e gli scienziati ipotizzarono l'esistenza di un tipo di materia, denominata appunto materia oscura, che interagisse debolmente con la radiazione elettromagnetica e fosse quindi interamente invisibile ai telescopi, sia che fossero a radiofrequenze che operanti nel campo del visibile o con raggi gamma e X, ma che producesse effetti gravitazionali. Nel corso degli anni si sono aggiunte ulteriori evidenze a sostegno dell'esistenza di materia oscura, provenienti anche dallo studio della cosmologia, e numerosi esperimenti (tra cui XENON, IGEX, DAMA/LIBRA) sono stati condotti per cercare di determinare tipo e massa delle particelle o la loro abbondanza (PLANCK). Il lavoro di questa tesi consiste in uno studio delle interazioni dei neutroni con lo xenon per l'esperimento XENON1T. I neutroni costituiscono un fondo particolarmente pericoloso per l'esperimento, in quanto producono uno scattering direttamente sul nucleo allo stesso modo delle particelle di materia oscura. Nel lavoro svolto sono state dapprima analizzate le caratteristiche delle singole interazioni con lo xenon contenuto nella camera, per poi passare ad uno studio più specifico sul comportamento dei neutroni prodotti dai fotomoltiplicatori del rivelatore. In seguito alle analisi svolte è stato possibile caratterizzare il fondo di neutroni in modo più preciso, permettendo di determinare alcuni criteri di selezione per il loro riconoscimento.