998 resultados para Documentazione installazione banco prova analisi dati


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce all’interno del progetto Europeo Theseus (Innovative technologies for European coasts in a changing climate), volto a fornire una metodologia integrata per la pianificazione sostenibile di strategie di difesa per la gestione dell’erosione costiera e delle inondazioni che tengano in conto non solo gli aspetti tecnici ma anche quelli sociali, economici e ambientali/ecologici. L'area oggetto di studio di questo elaborato di tesi è la zona costiera della Regione Emilia Romagna, costituita unicamente da spiagge sabbiose. In particolare si è focalizzata l’attenzione sulla zona intertidale, in quanto, essendo l’ambiente di transizione tra l’ambiente marino e quello terrestre può fornire indicazioni su fenomeni erosivi di una spiaggia e cambiamenti del livello del mare, unitamente alla risposta agli interventi antropici. Gli obiettivi della tesi sono sostanzialmente tre: un primo obiettivo è confrontare ecosistemi di spiagge dove sono presenti strutture di difesa costiera rispetto a spiagge che ne erano invece prive. Il secondo obiettivo è valutare l’impatto provocato sugli ecosistemi di spiaggia dall’attività stagionale del “bulldozing” e in ultimo proporre un sistema esperto di nuova concezione in grado di prevedere statisticamente la risposta delle comunità bentoniche a diversi tipi di interventi antropici. A tal fine è stato pianificato un disegno di campionamento dove sono stati indagati tre siti differenti per morfologia e impatto antropico: Cesenatico (barriere e pratica bulldozing), Cervia, dissipativa e non soggetta a erosione (assenza di barriere e ma con pratica del bulldozing) e Lido di Dante, tendenzialmente soggetta a erosione (senza barriere e senza pratica del bulldozing). Il campionamento è stato effettuato in 4 tempi (due prima del “bulldozing” e due dopo) nell’arco di 2 anni. In ciascun sito e tempo sono stati campionati 3 transetti perpendicolari alla linea di costa, e per ogni transetto sono stati individuati tre punti relativi ad alta, media e bassa marea. Per ogni variabile considerata sono stati prelevati totale di 216 campioni. Io personalmente ho analizzato i campioni dell’ultima campagna di campionamento, ma ho analizzato l’insieme dei dati. Sono state considerate variabili relative ai popolamenti macrobentonici quali dati di abbondanza, numero di taxa e indice di diversità di Shannon e alcune variabili abiotiche descrittive delle caratteristiche morfologiche dell’area intertidale quali granulometria (mediana, classazione e asimmetria), detrito conchigliare, contenuto di materia organica (TOM), pendenza e lunghezza della zona intertidale, esposizione delle spiagge e indici morfodinamici. L'elaborazione dei dati è stata effettuata mediante tecniche di analisi univariate e multivariate sia sui dati biotici che sulle variabili ambientali, “descrittori dell’habitat”, allo scopo di mettere in luce le interazioni tra le variabili ambientali e le dinamiche dei popolamenti macrobentonici. L’insieme dei risultati delle analisi univariate e multivariate sia dei descrittori ambientali che di quelli biotici, hanno evidenziato, come la risposta delle variabili considerate sia complessa e non lineare. Nonostante non sia stato possibile evidenziare chiari pattern di interazione fra “protezione” e “bulldozing”, sono comunque emerse delle chiare differenze fra i tre siti indagati sia per quanto riguarda le variabili “descrittori dell’habitat” che quelle relative alla struttura dei popolamenti. In risposta a quanto richiesto in contesto water framework directive e in maniera funzionale all’elevate complessità del sistema intertidale è stato proposto un sistema esperto basato su approccio congiunto fuzzy bayesiano (già utilizzato con altre modalità all’interno del progetto Theseus). Con il sistema esperto prodotto, si è deciso di simulare nel sito di Cesenatico due ripascimenti virtuali uno caratterizzato da una gralometria fine e da uno con una granulometria più grossolana rispetto a quella osservata a Cesenatico. Il sistema fuzzy naïve Bayes, nonostante al momento sia ancora in fase di messa a punto, si è dimostrato in grado di gestire l'elevato numero di interazioni ambientali che caratterizzano la risposta della componente biologica macrobentonica nell'habitat intertidale delle spiagge sabbiose.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi di laurea si affronta l’analisi di diversi modelli per il calcolo della capacità di un’intersezione a rotatoria: alcuni di questi sono di tipo empirico, altri invece sono di tipo teorico (teoria del gap acceptance). Innanzitutto si descrivono le caratteristiche di tutti i modelli studiati e si esaminano i risultati ottenuti nel calcolo della capacità al variare del flusso circolante, effettuato su un campione di venti rotatorie. In particolare si cerca di confrontare tra loro i vari modelli e di interpretare il significato dei parametri che compaiono nelle diverse formule. Successivamente si amplia l’analisi, utilizzando i dati raccolti come punto di partenza per una serie di altre elaborazioni ed interpolazioni. Alla base di questa seconda parte dello studio c’è l’idea di provare a vedere se sia possibile ricavare un nuovo modello, derivante da quelli studiati, che possa riassumerli in maniera semplice e aiutare a chiarire quali sono i parametri più importanti dai quali dipende il valore di capacità di una rotatoria. Questo nuovo modello dovrebbe eventualmente servire più che altro per interpretare i modelli studiati e per capire se uno di questi si comporti meglio degli altri in situazioni particolari oppure se sia più adatto in determinate condizioni di traffico piuttosto che in altre. Uno degli obiettivi principali di questo studio è infatti quello di provare a capire se la capacità di una rotatoria è influenzata maggiormente da aspetti geometrici, legati quindi alla forma e alle dimensioni della rotatoria stessa, oppure se un ruolo predominante è svolto da fattori comportamentali, legati quindi all’interazione tra i veicoli e ai processi di scelta degli utenti, che devono decidere se immettersi o meno nella rotatoria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il patrimonio edilizio italiano è costituito in gran parte da costruzioni che utilizzano la muratura come struttura portante. Le conoscenze acquisite negli ultimi anni nel campo dell’ingegneria hanno reso evidente come le costruzioni in muratura siano state concepite, nel corso dei secoli, senza quegli accorgimenti che l’evoluzione delle tecniche moderne di analisi ha dimostrato essere necessari. Progettare un intervento edilizio su un edificio esistente, correlato anche alla valutazione di rischio sismico, e cercare di migliorare le prestazioni dello stesso edificio, richiede partire sempre dalla conoscenza delle caratteristiche statiche intrinseche che il materiale della muratura possiede. La conoscenza della patologia comporta l'indubbio vantaggio di mettere al corrente di cosa ci si può attendere nel futuro dal punto di vista strutturale, come ad esempio che il fenomeno non sarà eliminabile all'origine e che la fessura o lesione magari si riformerà sempre, a meno d’interventi statici rilevanti e di costi ingenti. Diventa quindi di fondamentale importanza eseguire uno studio approfondito dei fenomeni strutturali anomali di deterioramento, quali lesioni, fessurazioni e simili, legati spesso a fattori ambientali, attraverso specifiche indagini diagnostiche e di monitoraggio dello stato interno delle strutture, per definire le cause responsabili e il metodo più adeguato alla tutela dei beni storici [Mastrodicasa, 1993]. Il monitoraggio dei possibili parametri che influenzano tali processi può essere continuo nel tempo o per mezzo di metodologia discontinua che prevede l’utilizzo e la ripetizione di prove non distruttive. L’elevato costo di un eventuale processo continuo ha limitato significativamente la sua applicazione, riducendo lo studio all’analisi di pochi parametri derivanti dalle prove diagnostiche e spesso non del tutto adatti alla completa analisi della struttura. Il seguente lavoro di tesi è sviluppato all’interno del progetto SmooHS (Smart Monitoring of Historic Structures) nell’ambito del 7° Programma Quadro della Commissione Europea che si pone come obiettivo lo sviluppo di strumenti di monitoraggio innovativi ‘intelligenti’ e poco invasivi e modelli di degrado e la loro sperimentazione sul campo per verificarne l’effettiva efficacia attraverso il confronto con risultati di prove non distruttive. La normativa correlata a questo studio, “Norme Tecniche per le Costruzioni’ (D.M. 14/01/2008), evidenzia come ‘La conoscenza della costruzione storica in muratura è un presupposto fondamentale sia ai fini di un’attendibile valutazione della sicurezza sismica attuale sia per la scelta di un efficace intervento di miglioramento…. Si ha pertanto la necessità di affinare tecniche di analisi e interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può, infatti, essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche, e delle indagini sperimentali. Tali operazioni saranno funzione degli obiettivi preposti e andranno a interessare tutto o in parte l’edificio, secondo la tipologia dell’intervento previsto’. L’utilizzo di ‘Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche e ultrasoniche’ è preferibile poiché molto promettenti e hanno il pregio di poter essere utilizzate in modo diffuso con un relativo impatto sulla costruzione e costi relativamente contenuti. La non identificazione di una procedura univoca di prove non distruttive per ciascuna tipologia edilizia rende necessario uno studio di fattibilità di diverse tecniche per valutarne l’effettiva efficacia in base al risultato atteso. L’obiettivo di questo lavoro di tesi è stato lo studio sperimentale di valutazione dell’efficacia di alcune tecniche soniche in trasmissione, tomografia e prove soniche dirette, nel monitoraggio di provini precedentemente realizzati ad hoc nei laboratori LISG (Laboratorio di Ingegneria Strutturale e Geotecnica) del DICAM dell’Università di Bologna caratterizzati da presenze di discontinuità (vacui o inclusioni di polistirolo) o materiali differenti in determinate posizioni di geometria e localizzazione nota e diverse tessiture murarie (muratura di laterizio tradizionale, muratura a sacco, inclusioni lapidee). Il capitolo 1 presenta una descrizione generale delle murature, le cause principali di deterioramento e conseguenti dissesti. Presenta inoltre una finestra sulle prove diagnostiche. Nel capitolo 2 sono riportati alcuni esempi di applicazioni di tomografia e prove soniche e sviluppi di ricerca su strutture storiche lignee e murarie eseguite recentemente. Nel capitolo 3 sono presentati i provini oggetto di studio, la loro geometria, i difetti, le sezioni. Il capitolo 4 descrive i principi fisici delle prove soniche e grandezze caratteristiche e presenta la procedura di acquisizione e relative strumentazioni. I capitoli 5 e 6 riguardano lo studio sperimentale vero e proprio ottenuto attraverso l’utilizzo di tomografia sonica e prove dirette, con descrizione delle stazioni di prova, visualizzazione dei dati in tabelle per una semplice interpretazione, loro elaborazione e susseguente analisi approfondita, con valutazione dei risultati ottenuti e debite conclusioni. Il capitolo 7 presenta un confronto delle analisi comuni a entrambe le tipologie di prove soniche, visualizzazioni di istogrammi di paragone e considerazioni deducibili.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi progettuale nasce per integrare gli sforzi attuali sullo sviluppo del web semantico. La piattaforma di riferimento sulla quale è stato svolto il presente lavoro è SMART-M3. Questa piattaforma mette a disposizione uno spazio condiviso di informazioni, rappresentate e accessibili secondo le tecnologie del web semantico. In questo scenario, nasce la necessità di disporre di un'interfaccia web capace di interagire con la piattaforma - in grado di risolvere la complessità intrinseca dei dati semantici - allo scopo di averne un completo controllo; ricerche precedenti a questo proposito hanno dato come frutto una libreria PHP che mi è stata consegnata come strumento per lo sviluppo dell'interfaccia. La tesi si è articolata in 3 fasi principali: una fase iniziale di documentazione sull'argomento, eseguita principalmente sul libro “A developer's guide to the semantic web” di Liyang Yu e sulla tesi “Ontologie per il web semantico: un'analisi comparativa.” di Indrit Beqiri; una seconda fase, quella principale, di sviluppo del progetto informatico; una terza fase, infine, di sviluppo di questo elaborato di tesi, da considerarsi come la trattazione di tutto il percorso soprascritto, dall'inizio alla fine, secondo l'ordine cronologico in cui si svolto l'intero processo della tesi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il termine extravergine, per un olio di alta qualità, rappresenta solo un pre-requisito: la categoria merceologica, intesa come conformità ad una serie di analisi chimico-sensoriali previste dalla normativa Europea, non è sufficiente ad esaltare il valore aggiunto che un olio può avere in termini di attributi di qualità sensoriale e salutistica. Questi ultimi sono fortemente influenzati dalla presenza di alcuni composti minori, come le molecole volatili e quelle a struttura fenolica (biofenoli). I composti volatili sono i principali responsabili dell'aroma di un olio extravergine d’oliva, mentre i biofenoli lo sono per gli attributi positivi, di amaro e piccante, già normati dal legislatore. Lo studio ha riguardato le relazioni esistenti tra le sostanze volatili e biofenoliche e le percezioni sensoriali ad esse associate. Tra gli oli extravergini di oliva partecipanti all’International Olive Oil Award di Zurigo 2012, sono stati selezionati 28 campioni monovarietali di diversa provenienza geografica (principalmente Italia, Spagna e Grecia). La valutazione sensoriale è stata eseguita dal panel dell’Institute of Food and Beverage Innovation di Zurigo con l’impiego di una scheda di profilo più descrittiva di quella ufficiale (Reg. CE 640/2008), contenente numerosi attributi positivi secondari valutati su scala discreta a 4 punti, oltre ad armonia e persistenza, su scala continua di 10 cm. I campioni sono stati sottoposti alla caratterizzazione della frazione biofenolica (indice di amaro, contenuto in fenoli totali ed analisi delle principali molecole fenoliche mediante HPLC-DAD/MSD) e dei composti volatili (SPME/GC-MSD). I dati ottenuti sono stati elaborati con l’ausilio di tecniche di analisi multivariata nel tentativo di valutare le correlazioni esistenti tra le variabili e di individuare gruppi omogenei di oli. La finalità di questo lavoro è stata quella di suggerire attributi discriminanti la qualità sensoriale di oli di pregio, che possano essere impiegati come leve di promozione dei prodotti, così come indicatori addizionali di autenticità.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo del presente elaborato di tesi è stato quello di mettere a punto una metodica in estrazione in fase solida (SPE) per la determinazione dei composti polari, in alternativa alla metodica ufficiale prevista dalla Circ. Minisan 11.01.91 n.1. Durante la frittura avvengono diverse trasformazioni chimiche che portano alla formazione di composti polari come monogliceridi e digliceridi, acidi grassi liberi, acidi grassi dimeri e polimerizzati, trigliceridi dimeri e polimerizzati. Tali composti, dal punto di vista nutrizionale, sono quelli più importanti poiché rimangono nell’olio, sono assorbiti dall’alimento, e di conseguenza ingeriti. I composti polari hanno una notevole importanza a livello nutrizionale e fisiologico, infatti diversi studi hanno evidenziano come essi possano avere un impatto sull’organismo umano. In seguito a tutte queste motivazioni, per prevenire possibili rischi per il consumatore, derivanti dall’uso improprio o eccessivamente ripetuto di oli e grassi per frittura, l’Istituto Superiore di Sanità prevede che il tenore dei composti polari non debba essere superiore a 25 g/100 g, infatti i composti polari sono l’unico parametro sottoposto ad un controllo ufficiale negli oli da frittura. La metodica ufficiale per la determinazione dei composti polari negli oli da frittura, è descritta nella Circ. Minisan dell’11.1.91 n.1. Tuttavia, tale metodica presenta diverse problematiche, poiché richiede un’elevata manualità da parte dell’operatore ed elevati quantitativi di solventi, con il conseguente impatto economico ed ambientale. Nella fase di messa a punto della metodica SPE, sono stati considerati diversi parametri: tipo di fase stazionaria, quantità di olio, miscele eluenti (in diverse quantità e rapporti). E’ stata scelta l’oleina di palma come matrice di prova della messa a punto, perché è molto utilizzata in frittura e perché, tra gli oli da frittura, risulta essere quello con maggior contenuto in composti polari. I migliori risultati sono stati ottenuti con una colonnina SPE in gel di silice (55 µm, 70 A) avente una capacità di 5 g/20 mL, depositando 400 mg di olio ed eluendo il campione con 80 mL di esano: etere dietilico (90:10, v/v) (composti apolari), e 20 mL di etere dietilico (composti polari). L’efficienza separativa della SPE è stata verificata tramite gascromatografia. Per poter valutare la ripetibilità, efficienza ed attendibilità della metodica SPE, è stata utilizzata l’oleina di palma prima e dopo essere soggetta a diversi cicli di frittura (dopo il primo e quinto giorno di frittura), in modo da avere diversi livelli di composti polari sulla stessa matrice. La metodica SPE ha mostrato un’eccellente ripetibilità analitica intra-giorno, indipendentemente dal livello di composti polari rilevati nell’oleina di palma (14,1-25,5%); infatti, la ripetibilità intra-giorno non ha superato l’1,5%. Inoltre, la ripetibilità intra-giorno non ha subito modifiche in funzione del contenuto di composti polari. Di conseguenza, si è osservato anche un’ottima ripetibilità analitica inter-giorno, che è variata da 0,64% a l’1,18%. Entrambi valori di ripetibilità (intra ed inter-giorni) attestano che questa metodica in estrazione in fase solida può essere utilizzata per la valutazione dei composti polari negli oli da frittura. Confrontando i livelli medi di composti polari ottenuti tramite la metodica SPE e quella ufficiale applicate all’oleina di palma tal quale, dopo il primo e quinto giorno di frittura, sono state rilevate delle piccole differenze (non significative) tra le due metodiche, essendo i livelli di composti polari in tutti i casi leggermente superiori nei dati della SPE. Entrambe le metodiche hanno presentato un’ottima ripetibilità intra-giorno (< 1,5% e < 3,5% per la SPE e la metodica ufficiale, rispettivamente) e sono risultate comunque confrontabili tra loro. La metodica SPE e quella ufficiale sono state poi applicate anche su altri oli vegetali (extravergine di oliva, olio di girasole alto oleico: olio di palma (60:40, v/v) ed olio di palma: olio di girasole alto oleico (55:45, v/v) ) e confrontate. In effetti, è stato osservato che le percentuali dei composti polari rilevati nello stessa tipologia d’olio sono molto simili, indipendentemente dalla metodica con cui siano stati valutati; è stata infatti confermata un’eccellente correlazione lineare tra i dati. Questo stesso andamento è stato riscontrato negli oli sottoposti a diversi cicli di frittura, il che conferma che entrambe metodiche analitiche sono capaci di separare efficientemente ed in modo analogo i composti non polari da quelli polari. Negli oli analizzati, sono state trovate delle percentuali di composti polari diverse, strettamente correlate all’origine dell’olio, alla sua composizione ed al processo di estrazione. Per ultimo, l’analisi dei costi (che includeva materiali, solventi, personale, ed elettricità) di entrambe le metodiche analitiche ha confermato che l’analisi SPE costerebbe € 22-30, a differenza di quella ufficiale, il cui costo sarebbe di circa € 45. Tale differenza è dovuta principalmente ai costi legati all’operatore ed ai consumi di solventi e di elettricità. Pertanto, la metodica SPE è risultata essere più conveniente in termini economici, poiché porta ad un risparmio di ca. € 15-20 per analisi, oltre che ad un dimezzamento dei solventi. Un altro aspetto importante da sottolineare è il diverso tempo che ciascuna delle metodiche prevede per l’analisi dei composti polari, essendo nettamente più veloce la metodica SPE (circa 1,30 h) rispetto alla metodica ufficiale (circa 3 h). La metodica SPE qui sviluppata ha quindi dimostrato di avere un’efficienza separativa e ripetibilità simili a quella della metodica ufficiale, rendendo possibile una minore manipolazione da parte dell’operatore, tempi più brevi di analisi e l’impiego di bassi quantitativi di solventi, portando così ad una riduzione dell’impatto ambientale ed a costi inferiori di operazione. Pertanto, la metodica SPE può rappresentare una valida alternativa alla metodica ufficiale, prevista dalla Circ. Minisan 11.1.91 n.1.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Numerose evidenze dimostrano che le proprietà dei materiali compositi sono strettamente legate ai processi produttivi, alle tipologie di fibra e resina impiegate nel materiale stesso. Proprietà caratterizzate anche dai difetti contenuti nel materiale stesso. Nella tesi si presta particolare attenzione al processo produttivo con prepreg e autoclave trattando anche il tema della stesura di un ply-book. Si valutano in modo teorico e critico alcuni tra i metodi N.D.T. più avanzati tra cui: P.T.(Penetrant Test), Rx(Radiography Test), UT (Ultrasound Test in Phased Array) e IRT (InfraRed Termography - Pulsata). Molteplici sono i componenti testati che variano tra loro per: tipologia di resina e fibra impiegata, processo produttivo e geometria. Tutti questi componenti permettono di capire come i singoli parametri influenzino la visualizzazione e l'applicabilità delle tecniche N.D.T. sopra citate. Su alcuni provini è stata eseguita la prova meccanica Drop Weight Test secondo ASTM D7136 per correlare le aree di delaminazione indotte e la sensibilità di ogni singolo metodo, visualizzando così la criticità indotta dagli urti con bassa energia di impatto (BVID Barely Invisible Impact)di cui i materiali compositi soffrono durante la "service life". A conclusione del lavoro si potrà comprendere come solo l'analisi con più metodi in parallelo permetta di ottenere una adeguata Probability Of Detection.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. L’obbiettivo che ci poniamo con questa tesi è quindi quello di esplorare il nascente mondo del Cloud Computing, cercando di comprenderne a fondo le principali caratteristiche architetturali e focalizzando l’attenzione in particolare sullo sviluppo di applicazioni in ambiente Cloud, processo che sotto alcuni aspetti si differenzia molto dallo sviluppo orientato ad ambienti più classici. La tesi è così strutturata: nel primo capitolo verrà fornita una panoramica sul Cloud Computing nella quale saranno date anche le prime definizioni e verranno esposti tutti i temi fondamentali sviluppati nei capitoli successivi. Il secondo capitolo costituisce un approfondimento su un argomento specifico, quello dei Cloud Operating System, componenti fondamentali che permettono di trasformare una qualunque infrastruttura informatica in un’infrastruttura Cloud. Essi verranno presentati anche per mezzo di molte analogie con i classici sistemi operativi desktop. Con il terzo capitolo ci si addentra più a fondo nel cuore del Cloud Computing, studiandone il livello chiamato Infrastructure as a Service tramite un esempio concreto di Cloud provider: Amazon, che fornisce i suoi servizi nel progetto Amazon Web Services. A questo punto, più volte nel corso della trattazione di vari temi saremo stati costretti ad affrontare le problematiche relative alla gestione di enormi moli di dati, che spesso sono il punto centrale di molte applicazioni Cloud. Ci è parso quindi importante approfondire questo argomento in un capitolo appositamente dedicato, il quarto, supportando anche in questo caso la trattazione teorica con un esempio concreto: BigTable, il sistema di Google per la gestione della memorizzazione di grandi quantità di dati. Dopo questo intermezzo, la trattazione procede risalendo lungo i livelli dell’architettura Cloud, ricalcando anche quella che è stata l’evoluzione temporale del Cloud Computing: nel quinto capitolo, dal livello Infrastructure as a Service si passa quindi a quello Platform as a Service, tramite lo studio dei servizi offerti da Google Cloud Platform. Il sesto capitolo costituisce invece il punto centrale della tesi, quello che ne soddisfa l’obbiettivo principale: esso contiene infatti uno studio approfondito sullo sviluppo di applicazioni orientate all’ambiente Cloud. Infine, il settimo capitolo si pone come un ponte verso possibili sviluppi futuri, analizzando quali sono i limiti principali delle tecnologie, dei modelli e dei linguaggi che oggi supportano il Cloud Computing. In esso viene proposto come possibile soluzione il modello ad attori; inoltre viene anche presentato il framework Orleans, che Microsoft sta sviluppando negli ultimi anni con lo scopo appunto di supportare lo sviluppo di applicazioni in ambiente Cloud.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La studio dell’efficienza di un indice azionario ha accresciuto la propria importanza nell’industria dell’asset management a seguito della diffusione dell’utilizzo di benchmark e investimenti indicizzati. Il presente lavoro valuta il livello di efficienza dei principali indici del mercato azionario statunitense, dell’Area Euro e italiano. Lo studio empirico ricorre a quattro misure di efficienza: il GRS, un test small-sample multivariato fondato sul CAPM; il test large sample di Wald, implementato tramite una simulazione bootstrap; il test GMM, che è stato applicato in una cornice non-gaussiana attraverso una simulazione block bootstrap; la misura di efficienza relativa di Kandel e Stambaugh. I risultati empirici forniscono una prova evidente della superiore efficienza degli indici equiponderati. Questa conclusione è interpretata sulla base della letteratura scientifica esistente, analizzando le diverse cause di ordine teorico ed empirico che sono state proposte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I linfomi primitivi cutanei riconosciuti nella classificazione della WHO/EORTC si presentano come “entità cliniche distinte” su base clinica, morfologica, immunofenotipica e molecolare. Il fenotipo linfocitario T helper CD4+ caratterizza i CTCL, ma alcune entità a prognosi aggressiva presentano un immunofenotipo citotossico CD8+. Numerosi studi di citogenetica (CGH) e gene-expression profiling (GEP) sono stati condotti negli ultimi anni sui CTCL e sono state riscontrate numerose aberrazioni cromosomiche correlate ai meccanismi di controllo del ciclo cellulare. Scopo del nostro studio è la valutazione delle alterazioni genomiche coinvolte nella tumorigenesi di alcuni CTCL aggressivi: il linfoma extranodale NK/T nasal-type, il linfoma primitivo cutaneo aggressivo epidermotropo (AECTCL) e il gruppo dei PTCL/NOS pleomorfo CD8+. Il materiale bioptico dei pazienti è stato sottoposto alla metodica dell’array-CGH per identificare le anomalie cromosomiche; in alcuni casi di AECTCL è stata applicata la GEP, che evidenzia il profilo di espressione genica delle cellule neoplastiche. I dati ottenuti sono stati valutati in modo statistico, evidenziando le alterazioni cromosomiche comuni significative di ogni entità. In CGH, sono state evidenziate alcune aberrazioni comuni fra le entità studiate, la delezione di 9p21.3, l’amplificazione di 17q, 19p13, 19q13.11-q13.32 , 12q13 e 16p13.3, che determinano la delezione dei geni CDKN2A e CDKN2B e l’attivazione del JAK/STAT signaling pathway. Altre alterazioni definiscono l’amplificazione di c-MYC (8q24) e CCND1/CDK4-6 (11q13). In particolare, sono state evidenziate numerose anomalie genomiche comuni in casi di AECTCL e PTCL/NOS pleomorfo. L’applicazione della GEP in 5 casi di AECTCL ha confermato l’alterata espressione dei geni CDKN2A, JAK3 e STAT6, che potrebbero avere un ruolo diretto nella linfomagenesi. Lo studio di un numero maggiore di casi in GEP e l’introduzione delle nuove indagini molecolari come l’analisi dei miRNA, della whole-exome e whole genome sequences consentiranno di evidenziare alterazioni molecolari correlate con la prognosi, definendo anche nuovi target terapeutici.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Gli impianti di depurazione rappresentano, nei contesti urbani, elementi di imprescindibile importanza nell’ambito di una corretta gestione e tutela della risorsa idrica e dell’ambiente. Il crescente grado di antropizzazione delle aree urbanizzate e parallelamente le sempre minori disponibilità in termini di spazi utilizzabili a fini depurativi comportano sempre di più la necessità di ottimizzare i processi di dimensionamento degli impianti. Inoltre, l’obiettivo di aumentare l’efficienza del ciclo depurativo andando a minimizzare i costi correlati alla gestione degli stessi indirizza verso una omogeneizzazione nei criteri di dimensionamento adottati. In questo senso, la normativa tecnica di settore risulta carente, andandosi a concentrare prevalentemente sul rispetto di fissati standard ambientali senza però fornire indicazioni precise sui criteri di progettazione da adottare per perseguire tali standard. La letteratura scientifica pur indicando range di possibili valori di riferimento da adottare, nel dimensionamento degli impianti, lascia un ampio margine di discrezionalità al progettista. La presente tesi si pone pertanto, a partire da tali valori di letteratura, di andare a definire da un lato le caratteristiche quali-quantitative del refluo in ingresso e dall’altro i valori di riferimento da adottare in sede di progettazione per perseguire gli obiettivi precedentemente indicati. La prima parte, di valenza generale, oltre alla caratterizzazione dell’influente descrive nel dettaglio le diverse fasi del processo e il loro dimensionamento che in tutte le sezioni, ad eccezione del biologico, viene effettuato attraverso equazioni semplificate mettendo a confronto e analizzando i parametri progettuali proposti da letteratura. Per quanto riguarda il comparto biologico la maggior complessità del fenomeno da descrivere rende difficile la valutazione delle grandezze che caratterizzano il funzionamento mediante l’utilizzo di equazioni semplificate. Per questo si è deciso di modellare questo comparto, unito a quello della sedimentazione, attraverso un software (WEST) che permette non solo di simulare il processo ma anche, attraverso le analisi di scenario, di determinare quelli che sono i valori progettuali puntuali che consentono di ottenere da un lato una minimizzazione dei costi dell’impianto, sia costruttivi che gestionali, e dall’altro la massimizzazione delle rese depurative. Nello specifico si è fatto riferimento ad impianto fanghi attivi a schema semplificato con potenzialità fissata pari a 10000 AE. Il confronto con i dati di esercizio di alcuni impianti di analoga tipologia ha evidenziato che una buona capacità dello strumento di modellazione utilizzato di descrivere i processi. E’ possibile quindi concludere che tali strumenti, affiancati ad una lettura critica dei risultati ottenuti possono essere ottimi strumenti di supporto sia in fase di progettazione che in prospettiva di gestione dell’impianto al fine di ottimizzare i processi e quindi i costi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La green chemistry può essere definita come “l’utilizzo di una serie di principi che riducono o eliminano l’uso o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici”. . È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Lo scopo del presente lavoro di tesi è l’analisi degli impatti ambientali associati a processi chimici, ambito ancora poco sviluppato nella letteratura degli studi di LCA. Viene studiato e modellato il ciclo di vita (dall’ottenimento delle materie prime fino alla produzione del prodotto) della reazione di ammonossidazione per la produzione di acrilonitrile, valutando e comparando due alternative di processo: quella tradizionale, che utilizza propilene ( processo SOHIO), e le vie sintetiche che utilizzano propano, ad oggi poco sviluppate industrialmente. Sono stati pertanto creati sei scenari: due da propene (SOHIO FCC, con propene prodotto mediante Fluid Catalytic Cracking, e SOHIO Steam), e quattro da propano (ASAHI, MITSUBISHI, BP povero e ricco in propano). Nonostante la produzione dell’alcano abbia un impatto inferiore rispetto all’olefina, dovuto ai minori stadi di processo, dai risultati emerge che l’ammonossidazione di propano ha un impatto maggiore rispetto a quella del propene. Ciò è dovuto ai processi catalitici che utilizzano propano, che differiscono per composizione e prestazioni, rispetto a quelli da propene: essi risultano meno efficienti rispetto ai tradizionali, comportando maggiori consumi di reattivi in input . Dai risultati emerge che gli scenari da propano presentano maggiori impatti globali di quelli da propene per le categorie Cambiamento climatico, Formazione di materiale e Consumo di combustibili fossili. Invece per la categoria Consumo di metalli un impatto maggiore viene attribuito ai processi che utilizzano propene, per la maggior percentuale di metalli impiegata nel sistema catalitico, rispetto al supporto. L’analisi di contributo, eseguita per valutare quali sono le fasi più impattanti, conferma i risultati. Il maggior contributo per la categoria Consumo di combustibili fossili è ascrivibile ai processi di produzione del propano, dell’ammoniaca e del solfato di ammonio ( legato all’ammoniaca non reagita ). Stessi risultati si hanno per la categoria Cambiamento climatico, mentre per la categoria Formazione di materiale particolato, gli impatti maggiori sono dati dai processi di produzione del solfato di ammonio, del propano e dell’acido solforico (necessario per neutralizzare l’ammoniaca non reagita). Per la categoria Consumo di metalli, il contributo maggiore è dato dalla presenza del catalizzatore. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il problema dell'antibiotico-resistenza è un problema di sanità pubblica per affrontare il quale è necessario un sistema di sorveglianza basato sulla raccolta e l'analisi dei dati epidemiologici di laboratorio. Il progetto di dottorato è consistito nello sviluppo di una applicazione web per la gestione di tali dati di antibiotico sensibilità di isolati clinici utilizzabile a livello di ospedale. Si è creata una piattaforma web associata a un database relazionale per avere un’applicazione dinamica che potesse essere aggiornata facilmente inserendo nuovi dati senza dover manualmente modificare le pagine HTML che compongono l’applicazione stessa. E’ stato utilizzato il database open-source MySQL in quanto presenta numerosi vantaggi: estremamente stabile, elevate prestazioni, supportato da una grande comunità online ed inoltre gratuito. Il contenuto dinamico dell’applicazione web deve essere generato da un linguaggio di programmazione tipo “scripting” che automatizzi operazioni di inserimento, modifica, cancellazione, visualizzazione di larghe quantità di dati. E’ stato scelto il PHP, linguaggio open-source sviluppato appositamente per la realizzazione di pagine web dinamiche, perfettamente utilizzabile con il database MySQL. E’ stata definita l’architettura del database creando le tabelle contenenti i dati e le relazioni tra di esse: le anagrafiche, i dati relativi ai campioni, microrganismi isolati e agli antibiogrammi con le categorie interpretative relative al dato antibiotico. Definite tabelle e relazioni del database è stato scritto il codice associato alle funzioni principali: inserimento manuale di antibiogrammi, importazione di antibiogrammi multipli provenienti da file esportati da strumenti automatizzati, modifica/eliminazione degli antibiogrammi precedenti inseriti nel sistema, analisi dei dati presenti nel database con tendenze e andamenti relativi alla prevalenza di specie microbiche e alla chemioresistenza degli stessi, corredate da grafici. Lo sviluppo ha incluso continui test delle funzioni via via implementate usando reali dati clinici e sono stati introdotti appositi controlli e l’introduzione di una semplice e pulita veste grafica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I farmaci sono una nuova classe di inquinanti ambientali ubiquitari che raggiungono, insieme alle acque fognarie, i depuratori urbani che non sono in grado di rimuoverli o degradarli. Così le acque depurate, ancora ricche di farmaci, si riversano nei canali riceventi portando questo carico di inquinanti fino ai fiumi e ai laghi. L’obiettivo del presente studio è stato fornire un contributo alla valutazione del rischio ecologico associato al rilascio di miscele di farmaci nell’ambiente acquatico, verificando con esperimenti di laboratorio gli effetti dell’esposizione congiunta a propranololo e fluoxetina sulla riproduzione di Daphnia magna, crostaceo planctonico d’acqua dolce. Il propranololo è un farmaco beta-bloccante, ossia blocca l'azione dell'adrenalina sui recettori adrenergici di tipo beta del cuore e viene utilizzato contro l’ipertensione. La fluoxetina è un antidepressivo, inibitore selettivo della ricaptazione della serotonina. Sono stati eseguiti test cronici (21 giorni) con solo propranololo (0,25 - 2,00 mg/L) e con solo fluoxetina (0,03 - 0,80 mg/L) che hanno stimato un EC50 per la riproduzione di 0,739 mg/L e di 0,238 mg/L, rispettivamente. L’ultima fase sperimentale consisteva in un test cronico con 25 miscele contenti percentuali diverse dei due farmaci (0%; 25%; 50%; 75%; 100%) e con diverse concentrazioni totali (0,50; 0,71; 1,00; 1,41; 2,00 unità tossiche). Le unità tossiche sono state calcolate sulla base degli EC50 dei precedenti test cronici con i singoli farmaci. I dati sperimentali del test sono stati analizzati utilizzando MixTox, un metodo statistico per la previsione degli effetti congiunti di miscele di sostanze tossiche, che ha permesso di stabilire quale fosse il modello in grado di rappresentare al meglio i risultati sperimentali. Il modello di riferimento utilizzato è stato la concentration addition (CA) a partire dal quale si è identificato il modello che meglio rappresenta l’interazione tra i due farmaci: antagonism (S/A) dose ratio dependent (DR). Infatti si evidenzia antagonismo per tutte le miscele dei due farmaci, ma più accentuato in presenza di una maggiore percentuale di propranololo. Contrariamente a quanto verificato in studi su altre specie e su effetti biologici diversi, è comunque stato possibile evidenziare un affetto avverso sulla riproduzione di D. magna solo a concentrazioni di propranololo e fluoxetina molto più elevate di quelle osservate nelle acque superficiali.