373 resultados para Volatilità implicita formula di Black-Sholescomportamento asintotico vicino alla scadenza
Resumo:
In questa tesi viene affrontato il tema del tracciamento video, analizzando le principali tecniche, metodologie e strumenti per la video analytics. L'intero lavoro, è stato svolto interamente presso l'azienda BitBang, dal reperimento di informazioni e materiale utile, fino alla stesura dell'elaborato. Nella stessa azienda ho avuto modo di svolgere il tirocinio, durante il quale ho approfondito gli aspetti pratici della web e video analytics, osservando il lavoro sul campo degli specialisti del settore e acquisendo familiarità con gli strumenti di analisi dati tramite l'utilizzo delle principali piattaforme di web analytics. Per comprendere a pieno questo argomento, è stato necessario innanzitutto conoscere la web analytics di base. Saranno illustrate quindi, le metodologie classiche della web analytics, ovvero come analizzare il comportamento dei visitatori nelle pagine web con le metriche più adatte in base alle diverse tipologie di business, fino ad arrivare alla nuova tecnica di tracciamento eventi. Questa nasce subito dopo la diffusione nelle pagine dei contenuti multimediali, i quali hanno portato a un cambiamento nelle modalità di navigazione degli utenti e, di conseguenza, all'esigenza di tracciare le nuove azioni generate su essi, per avere un quadro completo dell'esperienza dei visitatori sul sito. Non sono più sufficienti i dati ottenuti con i tradizionali metodi della web analytics, ma è necessario integrarla con tecniche nuove, indispensabili se si vuole ottenere una panoramica a 360 gradi di tutto ciò che succede sul sito. Da qui viene introdotto il tracciamento video, chiamato video analytics. Verranno illustrate le principali metriche per l'analisi, e come sfruttarle al meglio in base alla tipologia di sito web e allo scopo di business per cui il video viene utilizzato. Per capire in quali modi sfruttare il video come strumento di marketing e analizzare il comportamento dei visitatori su di esso, è necessario fare prima un passo indietro, facendo una panoramica sui principali aspetti legati ad esso: dalla sua produzione, all'inserimento sulle pagine web, i player per farlo, e la diffusione attraverso i siti di social netwok e su tutti i nuovi dispositivi e le piattaforme connessi nella rete. A questo proposito viene affrontata la panoramica generale di approfondimento sugli aspetti più tecnici, dove vengono mostrate le differenze tra i formati di file e i formati video, le tecniche di trasmissione sul web, come ottimizzare l'inserimento dei contenuti sulle pagine, la descrizione dei più famosi player per l'upload, infine un breve sguardo sulla situazione attuale riguardo alla guerra tra formati video open source e proprietari sul web. La sezione finale è relativa alla parte più pratica e sperimentale del lavoro. Nel capitolo 7 verranno descritte le principali funzionalità di due piattaforme di web analytics tra le più utilizzate, una gratuita, Google Analytics e una a pagamento, Omniture SyteCatalyst, con particolare attenzione alle metriche per il tracciamento video, e le differenze tra i due prodotti. Inoltre, mi è sembrato interessante illustrare le caratteristiche di alcune piattaforme specifiche per la video analytics, analizzando le più interessanti funzionalità offerte, anche se non ho avuto modo di testare il loro funzionamento nella pratica. Nell'ultimo capitolo vengono illustrate alcune applicazioni pratiche della video analytics, che ho avuto modo di osservare durante il periodo di tirocinio e tesi in azienda. Vengono descritte in particolare le problematiche riscontrate con i prodotti utilizzati per il tracciamento, le soluzioni proposte e le questioni che ancora restano irrisolte in questo campo.
Resumo:
Architettura Alla domanda “cosa fa un architetto?” Non sono mai riuscito a dare una risposta soddisfacente ma leggendo gli scritti dei grandi architetti una cosa mi ha affascinato particolarmente: tutti raccontano di come nel progettare ci sia un equilibrio (scontro?) tra le conoscenze, le regole e la personale visione ed esperienza, in cui tutto si libera. Libeskind afferma di aver disegnato, in preda ad illuminazioni, più su tovagliolini da bar che su carta da disegno; Zumthor parla addirittura di momenti in cui si è come in preda ad un effetto di una droga: intuizioni! L’architetto progetta. Architetto come genio, particolarmente sensibile, quasi illuminato. “L’architettura non è per tutti”; mi chiedo allora non solo se esistono leggi, soluzioni o binari capaci di guidare anche chi è privo di tale estro ma se esiste un’Architettura comprensibile a tutti (anche alle generazioni future). Ancora una volta se penso ad un denominatore comune di benessere, una possibile guida, penso alla natura e ai suoi ritmi, un’Architettura che mantenga i legami con essa può forse ricordarci che siamo tutti ricchi. L’Architettura intesa come scoperta e non come invenzione, dunque onesta. Carcere Lo studio di una realtà come il carcere mi ha permesso di pormi numerose domande sul ruolo dell’Archittura, a partire dalla riflessione su ciò che significa e rappresenta il progetto architettonico. Studiando l’evoluzione delle carceri, legate indissolubilmente all’evoluzione del concetto di pena, è possibile dare molte risposte ai quesiti dovuti alle scelte progettuali. (costantemente stimolato dalle frequenti similitudini tra carcere e metropoli). Una contrapposizione dovuta al significato dell’abitare insieme al concetto di “qualità” rapportati al concetto di pena senza dimenticare le indicazioni delle norme di sicurezza. L’ Architettura intesa come ricerca del maggior benessere abitativo credo che debba comunque essere ricercata, anche nello spazio carcerario. Non vi è nessun paradosso se si pensa che lo scopo ultimo dello Stato è di voler reintegrare il detenuto in modo tale che non rappresenti più un pericolo e di conseguenza non gravi mai più sullo Stato stesso (troppo spesso chi è stato in carcere ci rientra dopo poco e per gli stessi motivi). “Le pene non possono consistere in trattamenti contrari al senso di umanità e devono tendere alla rieducazione del condannato”(art.27 Cost.) è da questa consapevolezza che dipende l’organizzazione della forma dello spazio e di tali strutture. Naturalmente il grande limite è imposto nel non creare situazioni di benessere tale da portare lo sprovveduto più disperato a commettere il crimine per poter godere dei servizi del carcere. Per questo motivo penso che una soluzione possa essere la ricerca di un equilibrio tra libertà degli spazi condivisi e i limiti dello spazio privato. A mio avviso tutte le esperienze positive devono avvenire in spazi collettivi insieme non solo agli altri carcerati ma anche con la società stessa (penso al Giardino degli incontri di Michelucci in cui c’è una attività teatrale gestita dagli enti comunali); mentre i limiti della reclusione penso debbano essere rappresentati dalla cella, da sempre momento di riflessione e di scoperta di sé stessi. Il detenuto impara a conoscere la società, impara a rispettarla ed una volta libero è più logico che sia disposto a ricambiare le attenzioni ricevute. La cella invece, deve rappresentare il momento in cui è forte il distacco con la società, in cui la si può guardare senza poterne fare parte: la cella come momento dell’attesa e non come comodo rifugio(seppur rispettando un livello di comfort ideale). Il disagio percepito non è da considerare una pena psicologica (anch’essa da evitare) o come un momento di purificazione (immaginario cristiano della colpa e dell’espiazione) ma più semplicemente come una fase del processo in grado (si spera) di recuperare il detenuto: è il desiderio e la consapevolezza di poter vivere insieme agli altri che porta al reinserimento. Di conseguenza è possibile dare una ulteriore risposta interessante; il carcere dovrà essere connesso alla città in modo tale che sia possibile l’interazione tra i due, inoltre permetterebbe alle persone in semi-libertà o in attesa di giudizio un più consono trattamento. Mettere in relazione città e carcere significa integrarli e completare le reciproche identità.
Resumo:
Questo lavoro nasce principalmente da un legame affettivo e di parentela che mi lega alla figura di Mario Giacomelli e alla sua grande opera di fotografo che lo ha portato a raggiungere un ruolo fondamentale nella storia della fotografia contemporanea. Ricordo che sin da quando ero bambino rimanevo affascinato dalle sue opere, da quei paesaggi fotografati in bianco e nero, da quelle sagome dei pretini che sembrano danzare nel vuoto, il tutto però senza capire la vera importanza di quello che avevo davanti ai miei occhi e ignorando completamente tutto l’interesse, le critiche e i dibattiti che quegli scatti accendevano in quegli anni, al punto di venire addirittura esposti in quello che si può definire il museo di arte moderna per antonomasia, ovvero il MoMa, in fondo per me non era altro che uno zio. Il ricordo mi porta nella sua piccola e buia Tipografia Marchigiana, in pieno centro storico a Senigallia, proprio dietro il Municipio, dove lo trovavo sempre indaffarato con timbri, foto e oggetti di ogni tipo, sommerso in un caos primordiale. È incredibile pensare come in quel minuscolo negozio siano passati tutti i più grandi personaggi della fotografia italiana, quali Giuseppe Cavalli, Ferruccio Ferroni, Gianni Berengo Gardin, Ferdinando Scianna; dietro quella facciata di piccola bottega si nascondeva un universo parallelo che entrava in contatto con le più importanti gallerie e musei di arte contemporanea del mondo. Oggi al suo posto c’è una Parrucchieria. Molte cose sono cambiate, io ho capito, aimè in ritardo, l’importanza del personaggio che ho avuto la fortuna di conoscere e di avere come parente. La città stessa si è accorta solo dopo la morte, come spesso accade, di quale formidabile artista ha cresciuto, un artista che è sempre rimasto fedele alla sua terra di origine, che ha rappresentato una fonte inesauribile di spunti per la sua opera fotografica. A quel punto si è scatenato un turbinio di conferenze, mostre e pubblicazioni sul lavoro di Giacomelli, tanto che sarebbe rimasto impossibile a chiunque non capire il peso che questa figura ha ancora oggi per la città. Proprio lo scorso Novembre è ricorso il decennale della sua scomparsa e in questa occasione si è dato il via ad una infinita serie di iniziative, mostre, conferenze e pubblicazioni dedicate alla figura del fotografo senigalliese, ribadendo la necessità per la città di dotarsi di uno spazio idoneo ad ospitare questi eventi. In una recente intervista condotta dal quotidiano Il Resto del Carlino, Simone Giacomelli, figlio del fotografo, ha sottolineato l’urgenza della creazione di uno spazio dedicato alle fotografie del padre “Io lavoro molto con l'estero e sono in contatto con appassionati che arrivano da tutto il mondo per ammirare le foto di Giacomelli. C'è un gruppo di studenti che mi ha contattato dall'Australia. Ho dovuto dire di aspettare perché in città c'è una raccolta di foto al Museo mezzadria ed una parte al Museo dell'informazione. Manca un luogo dove si possa invece vedere tutta la produzione.”. Con queste premesse il progetto per un Centro Internazionale della Fotografia non poteva che essere a Senigallia, non tanto per il fatto di essere la mia città, alla quale sono molto legato, quanto per l’essere stata la culla di un grande artista quale Mario Giacomelli, dalla quale non si è mai voluto allontanare e che ha rappresentato per lui la fonte di ispirazione di quasi tutte le sue opere. Possiamo dire che grazie a questo personaggio, Senigallia è diventata la città della Fotografia, in quanto non passa settimana senza che non venga presentata una nuova iniziativa in ambito fotografico e non vengano organizzate mostre di fotografi di calibro internazionale quali Henri Cartier Bresson, Ara Guler, etc… Ecco quindi motivato il titolo di Internazionale attribuito al museo, in quanto da questo cuore pulsante si dovranno creare una serie di diramazioni che andranno a collegare tutti i principali centri di fotografia mondiali, favorendo lo scambio culturale e il dibattito. Senigallia è una città di modeste dimensioni sulla costa adriatica, una città dalle grandi potenzialità e che fa del turismo sia balneare che culturale i suoi punti di forza. La progettazione di questa sede museale mi ha permesso di affrontare e approfondire lo studio storico della città nella sua evoluzione. Da questa analisi è emerso un caso molto particolare ed interessante, quello di Piazza Simoncelli, un vuoto urbano che si presenta come una vera e propria lacerazione del tessuto cittadino. La piazza infatti è stata sede fino al 1894 di uno dei quattro lotti del ghetto ebraico. Cambia quindi il ruolo del sito. Ma la mancata capacità aggregativa di questo vuoto, data anche dal fatto della mancanza di un edificio rappresentativo, ne muta il ruolo in parcheggio. E’ la storia di molti ghetti italiani inseriti in piani di risanamento che vedevano la presenza del costruito antecedente, come anomalia da sanare. E’ la storia del ghetto di Roma o di quello di Firenze, che sorgeva nel luogo dell’attuale Piazza della Repubblica. Tutti sventrati senza motivazioni diverse che non la fatiscenza dell’aggregato. A Senigallia il risultato è stato una vera e propria lacerazione del tessuto urbano, giungendo alla produzione di un vuoto oppositivo al resto della città, che ha portato la perdita della continuità spaziale, se non si vuole poi far riferimento a quella culturale. Il mio intervento quindi vede nel legame con la storia e con l’identità del luogo un punto fondamentale di partenza. Da queste basi ho cercato di sviluppare un progetto che ha come presupposto il forte legame con la memoria del luogo e con le architetture locali. Un progetto che possa rappresentare un polo culturale, un cuore pulsante dove poter sviluppare e approfondire le conoscenze fotografiche, dal quale poter entrare in contatto con tutti i principali centri dedicati alla fotografia e nel quale poter tenere sempre vivo il ricordo di uno dei più importanti artisti che la città ha avuto la fortuna di crescere.
Resumo:
L’obiettivo che sarà perseguito consisterà, dopo un’attenta ricerca di tipo bibliografico, nella definizione delle diverse fasi legate all’introduzione, in strutture esistenti, di un composito fibrorinforzato con grande attenzione verso i FRCM, fiber reinforced cement matrix, caratterizzati da un recente sviluppo, che saranno messi a confronto con i tradizionali FRP, fiber reinforced polymer. Ad oggi l’Italia è mancante di una linea guida per i materiali fibrorinforzati di tipo FRCM, quindi in un’ottica di colmare tale lacuna, per quel che è possibile, la seguente attività di tesi proverà ad enunciare, avvalendosi dei punti chiavi della linea guida degli FRP, i passaggi relativi alla progettazione ,esecuzione e collaudo di strutture mediante rinforzo con fibre lunghe dentro a matrice cementizia. Si cercherà di fornire un quadro completo dello stato attuale dell’impiego dei FRCM nel recupero storico, in modo da fornire delle tracce di comprovata validità in merito alla scelta del tipo d’intervento ottimale da eseguire.
Resumo:
Il concetto di mobilita' delle persone, assieme alla sempre maggior dipendenza di queste ai servizi offerti da Internet,ha fatto nascere la necessita' di rimanere connessi ad Internet indipendentemente dai propri spostamenti, mantenendo inalterate le prestazioni delle connessioni. HPforMSC, l'oggetto di questa tesi, e' un'architettura basata su hidden proxy che permette in maniera del tutto trasparente all'utente di utilizzare contemporaneamente le varie interfacce di rete a disposizione mantenendo inalterate le performance di tutte le comunicazioni in essere durante un handover, sia esso orizzontale o verticale.
Resumo:
Città natale del famoso compositore Gioacchino Rossini, Pesaro ospita e celebra le tracce della sua vita e della sua opera. L’appellativo di Pesaro “Città rossiniana”richiede alla città stessa la presenza di molte sedi tecniche e amministrative per tutti gli enti che si occupano della celebrazione e del mantenimento in vita della tradizione rossiniana. Questo è il motivo per cui si propone l’idea di un Centro Rossiniano che possa racchiudere in sé tutte le funzioni che stanno “dietro le quinte” delle manifestazioni, delle rappresentazioni, dello studio, della conservazione del materiale e della didattica riguardanti Gioacchino Rossini. Attualmente le consistenze storiche e artistiche che lo riguardano hanno diversi proprietari e altrettante numerose sedi, senza appartenere ad una collezione unica con univoca ed ordinata collocazione. Alla funzione museale si propone di affiancare quella di studio e approfondimento sulla vita del compositore e sul materiale conservato, prevedendo un Centro Studi con laboratori, aule studio e per la didattica. Ulteriormente, si propone di dare sede amministrativa al Rossini Opera Festival e alla Fondazione Rossini, liberando così il Teatro ed il Conservatorio dalle funzioni che non sono loro prettamente coerenti. Il progetto prevede inoltre di dotare il Centro Rossiniano di un auditorium-sala conferenze, che possa alleggerire il carico di attività del Teatro Rossini e della Sala Pedrotti. L’area di cui il progetto si interessa è racchiusa all’interno di un bastione che apparteneva alla cinta muraria cinquecentesca e che attualmente ospita l’Istituto Ospedaliero San Salvatore. In accordo con gli uffici competenti dell’amministrazione comunale, si prevede il decentramento della sede dell’Ospedale e la liberazione dell’area del bastione dalle preesistenze che oggi ne opprimono il valore storico ed il carattere esclusivo. Lo scopo di tale disimpegno dell’area è inoltre quello di destinarla a verde pubblico, nel rispetto della preesistenza storica e di collegare la zona di interesse al sistema dei percorsi ciclopedonali che si diramano in tutta la città di Pesaro. Il progetto propone ancora, l’inserimento nell’area di una quota di residenze e prevede l’alleggerimento del carico di traffico all’interno del centro storico, dirottandone gran parte lungo i viali alberati che ne percorrono il perimetro.
Resumo:
Lo studio che si ha in informatica ha come obiettivo la scoperta di algoritmi sempre più efficienti per riuscire, con componenti semplici, a svolgere compiti complessi, con il minore carico di lavoro possibile. Le applicazioni di tale studio trovano risultati anche nel campo del controllo adattativo di robot. Si vogliono confrontare tramite questo studio le osservazioni più importanti riguardati queste caratteristiche rese note dalla scienza e applicarle ai campi sopra citati per dimostrare l'effettivo valore e affidabilità che si guadagnano andando a utilizzare degli algoritmi che rispecchiano le stesse caratteristiche che si possono notare nel regno animale. La metodologia di interesse usata come caso di studio è quella del recupero di oggetti. Esistono numerose soluzioni a questo problema che possono trovare uso in molte realtà utili all'uomo. Ne verranno presentate e confrontate due all'interno di questo elaborato, studiando le caratteristiche positive e negative di entrambe. Questi due approcci sono chiamati a soglia fissa e a soglia variabile. Entrambe sono tipologie di adattamento che prendono spunto dal comportamento che hanno le colonie di formiche quando si muovono alla ricerca di cibo. Si è deciso di analizzare queste due metodologie partendo da una panoramica generale di come cooperano gli insetti per arrivare al risultato finale, per poi introdurre nello specifico le caratteristiche di entrambe analizzando per ognuna i risultati ottenuti tramite grafici, e confrontandoli tra di loro.
Resumo:
La regione Puglia negli ultimi anni è stata interessata da un importante aumento dell’urbanizzazione e ad una crescita di diverse attività economiche. Visto che questo sviluppo si concentra soprattutto nelle zone costiere ne consegue una sempre maggior influenza sulle diverse risorse marine (Cardillo et al. 2004; Mora 2008). Numerosi studi in varie parti del mondo (Airoldi & Beck 2007; Gray et al. 1990; Strain & Craig 2011; Thrush et al. 2006; Thrush et al. 1998) hanno mostrato come l’instaurarsi di attività economiche e la relativa creazione di impianti, strutture artificiali, e sviluppo urbano ad esse correlate, inducano forti modificazioni nei pattern naturali di distribuzione delle diverse specie dei popolamenti naturali. Questo studio ha interessato il golfo di Taranto in quanto essa è una delle principali città di questa regione, e può essere considerato un eccellente caso di studio. La finalità di questa tesi è analizzare i pattern di distribuzione del coralligeno in questo tratto di costa e di discuterli tenendo conto degli effetti delle pressioni antropiche presenti nell’area. Dall’analisi dei dati raccolti per mezzo di un campionamento fotografico, risulta che il coralligeno delle diverse località studiate, è caratterizzato da elevata variabilità, in termini di struttura del popolamento, già alla più piccola scala spaziale indagata, quella delle repliche. Tale variabilità, secondo l’ipotesi formulata, può essere causata da una combinazione di processi diversi, che operano a scale differenti. Certamente, le attività antropiche presenti nell’area di studio, sia singolarmente che in combinazione tra loro, aggiungono una sorgente ulteriore di variabilità, plausibilmente determinando cambiamenti diversi a seconda del tipo di attività che insiste nelle differenti aree. Da questo studio, pertanto, emergono alcune informazioni inerenti i pattern di distribuzione del popolamento a coralligeno nell’area del golfo di Taranto e alla possibile influenza di diverse fonti di impatto. Diverse sono le combinazioni di stress antropici analizzate e tutte causano modifiche ai popolamenti. I risultati ottenuti potrebbero aiutare gli organi competenti a selezionare modalità di espansione urbana ed industriale che tengano conto delle conseguenze di tale sviluppo sugli ambienti naturali costieri della Puglia.
Resumo:
La sostenibilità ambientale ed il risparmio energetico rappresentano temi di grande attualità,forse non ancora sufficientemente approfonditi nel contesto dei territori costieri con una vocazione prevalentemente turistica. Il paesaggio marittimo della costa adriatica, con particolare attenzione alle zone di Ravenna e Jesolo, viene riletto attraverso le esperienze didattiche raccolte e rielaborate in questa sede, come vera e propria risorsa. Nel primo caso (Laboratorio di progettazione architettonica I) dedicato alla valorizzazione della foce dei Fiumi Uniti a Ravenna, si sono utilizzati il paesaggio e le emergenze architettoniche del territorio come fonti di ispirazione per la realizzazione di un percorso didattico. La seconda esperienza (Laboratorio di costruzione dell’architettura I), il progetto di un’unità abitativa sviluppata secondo criteri di sostenibilità ambientale sul litorale pugliese, rappresenta un momento di approfondimento di alcuni aspetti tecnici della costruzione, per ciò che riguarderà la ricerca e l’uso dei materiali più performanti. L’ultimo contributo (Laboratorio di sintesi finale), il progetto per la riqualificazione di un’area presso la località di Jesolo, sintetizza al suo interno gli interessi e le conoscenze maturate nel corso delle precedenti esperienze progettuali. Le riflessioni progettuali elaborate all’interno del laboratorio di progettazione del primo anno e del laboratorio di sintesi finale oltre a rappresentare le esperienze di inizio e fine del mio percorso universitario, ne restituiscono bene l’evoluzione, mettendo chiaramente in risalto come la mia attenzione nei confronti del paesaggio sia mutata nel corso degli anni. Nel primo caso la volontà è stata quella di rispettare la memoria del luogo senza modificarne l’identità, per questo si è scelto di collocare lungo il corso dei Fiumi Uniti, dall’immaginaria sorgente, all’incontro tra il Montone ed il Ronco, fino alla foce presso Lido di Dante, una serie di padiglioni che rappresentano gli elementi salienti del territorio ravennate. Per quanto riguarda Jesolo, invece, a causa delle pregresse condizioni dell’area oggetto dell’intervento, si è proceduto in modo più deciso, azzerando il lavoro di urbanizzazione primaria già effettuato, al fine di realizzare un “parco della ricerca”, all’interno del quale sviluppare energia biochimica attraverso l’uso di materia micro-algale, con l’intento di garantire al progetto nel suo insieme tanto una sostenibilità ambientale, quanto economica. Tra queste due esperienze un approfondimento sul tema del risparmio energetico, con il progetto per un’unità abitativa sul litorale pugliese, mette in luce l’interesse ed il progressivo avvicinamento a tematiche legate alla sostenibilità ambientale in ambito architettonico.
Resumo:
In questa tesi abbiamo studiato la quantizzazione di una teoria di gauge di forme differenziali su spazi complessi dotati di una metrica di Kaehler. La particolarità di queste teorie risiede nel fatto che esse presentano invarianze di gauge riducibili, in altre parole non indipendenti tra loro. L'invarianza sotto trasformazioni di gauge rappresenta uno dei pilastri della moderna comprensione del mondo fisico. La caratteristica principale di tali teorie è che non tutte le variabili sono effettivamente presenti nella dinamica e alcune risultano essere ausiliarie. Il motivo per cui si preferisce adottare questo punto di vista è spesso il fatto che tali teorie risultano essere manifestamente covarianti sotto importanti gruppi di simmetria come il gruppo di Lorentz. Uno dei metodi più usati nella quantizzazione delle teorie di campo con simmetrie di gauge, richiede l'introduzione di campi non fisici detti ghosts e di una simmetria globale e fermionica che sostituisce l'iniziale invarianza locale di gauge, la simmetria BRST. Nella presente tesi abbiamo scelto di utilizzare uno dei più moderni formalismi per il trattamento delle teorie di gauge: il formalismo BRST Lagrangiano di Batalin-Vilkovisky. Questo metodo prevede l'introduzione di ghosts per ogni grado di riducibilità delle trasformazioni di gauge e di opportuni “antifields" associati a ogni campo precedentemente introdotto. Questo formalismo ci ha permesso di arrivare direttamente a una completa formulazione in termini di path integral della teoria quantistica delle (p,0)-forme. In particolare esso permette di dedurre correttamente la struttura dei ghost della teoria e la simmetria BRST associata. Per ottenere questa struttura è richiesta necessariamente una procedura di gauge fixing per eliminare completamente l'invarianza sotto trasformazioni di gauge. Tale procedura prevede l'eliminazione degli antifields in favore dei campi originali e dei ghosts e permette di implementare, direttamente nel path integral condizioni di gauge fixing covarianti necessari per definire correttamente i propagatori della teoria. Nell'ultima parte abbiamo presentato un’espansione dell’azione efficace (euclidea) che permette di studiare le divergenze della teoria. In particolare abbiamo calcolato i primi coefficienti di tale espansione (coefficienti di Seeley-DeWitt) tramite la tecnica dell'heat kernel. Questo calcolo ha tenuto conto dell'eventuale accoppiamento a una metrica di background cosi come di un possibile ulteriore accoppiamento alla traccia della connessione associata alla metrica.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
Nell’autunno del 2011 due eventi meteorologici estremi caratterizzati da intense precipitazioni hanno interessato la Liguria. Nella giornata del 25 ottobre si è verificato sul Levante ligure un evento alluvionale di rilevante entità, determinato dalla formazione di un intenso sistema convettivo che ha coinvolto l’area compresa tra il Tigullio, le Cinque Terre ed il bacino del Magra. Un altro episodio di forte maltempo si è verificato tra il 3 e il 9 novembre 2011, e in particolare il forte sistema convettivo che ha interessato Genova la mattina del 4 novembre, in cui avvenne l’esondazione in alcuni punti del torrente Bisagno e del rio Fereggiano. Tuttavia, nel corso del lungo periodo perturbato si sono registrati vari episodi di esondazione, localizzati principalmente in zone golenali agricole, anche sui versanti padani della regione, oltre a numerosi casi di smottamenti e frane. I casi sopra citati sono stati studiati facendo innanzitutto un’accurata analisi meteorologica a scala sinottica e alla mesoscala, esaminando in particolar modo i meccanismi che hanno portato l’innesco dei due sistemi temporaleschi. In secondo luogo, utilizzando anche dati osservativi disponibili, si è voluto mettere in evidenza la reale e significativa evoluzione nel tempo e nello spazio dei dati pluviometrici delle stazioni al suolo, e dei parametri fisici più importanti, come ad esempio la direzione e l’intensità del vento. Infine, utilizzando simulazioni numeriche dei modelli sviluppati all’ISAC-CNR di Bologna (BOLAM e MOLOCH), ci si è posti l’obiettivo di verificare la loro sensibilità alla risoluzione e ad altri aspetti numerici e fisici, in particolare per quanto riguarda i dati relativi alla precipitazione. I modelli, oltre a riprodurre la dinamica degli eventi in maniera fisicamente coerente anche se non del tutto accurata, sono stati utilizzati, previo confronto con le osservazioni, per verificare alcune ipotesi formulate relative ai processi fisici responsabili dell’intensità della precipitazione, come ad esempio la presenza del flusso (outflow) di aria fredda proveniente dalla cold pool in relazione con le correnti caldo-umide negli strati più bassi (Low Level Jet, LLJ), e la formazione di una zona di convergenza nella quale è più alta la probabilità che si sviluppino sistemi convettivi organizzati.
Resumo:
La tesi descrive in modo analitico la formazione del temporale e i suoi stadi di vita, i tipi di temporale suddivisi in base alla struttura e le nubi accessorie, particolari formazioni nuvolose che appartengono al temporale e alla sua evoluzione.
Resumo:
Il primo scopo di questo progetto sperimentale è stato quello di valutare la qualità chimica e sensoriale di oli vergini d’oliva ottenuti da olive conservate per tempi diversi prima della loro lavorazione. Spesso, infatti, quando le olive arrivano in frantoio, la loro trasformazione può essere ritardata a causa della ridotta capacità di lavorazione degli impianti rispetto alla quantità di prodotto da lavorare. Il tempo e le modalità di conservazione delle drupe risultano fattori molto importanti ai fini della qualità organolettica dell’olio prodotto. Per questa finalità sono state acquistate olive di due diverse varietà (Correggiolo e Canino) e divise in due aliquote. La prima aliquota di ogni partita di olive è stata franta al momento della consegna (tempo 0), la seconda invece è stata stoccata in condizioni non ideali di conservazione ed umidità per 7 giorni (varietà Correggiolo) e 15 giorni (varietà Canino), quindi franta. Per tutti i campioni sono stati valutati i parametri di qualità stabiliti dal Reg. CEE n. 2568/91 e successive modifiche: acidità libera e numero di perossidi con valutazioni titrimetriche, estinzioni specifiche nell'ultravioletto mediante spettrofotometria, determinazione gascromatografica degli alchil esteri degli acidi grassi ed analisi sensoriale secondo “Panel test”. Sono stati inoltre valutati parametri compositivi che attualmente non sono contemplati nei regolamenti ufficiali: il profilo qualitativo e quantitativo gascromatografico in digliceridi e quello in componenti volatili (SPME). I risultati ottenuti per i campioni ottenuti da olive “fresche” e da olive conservate per tempi diversi sono stati comparati con i limiti di legge che definiscono l'appartenenza alle categorie merceologiche degli oli di oliva vergini (extravergine, vergine o lampante) e, per i parametri non normati, sono state valutate le principali differenze in relazione alla qualità del prodotto. Il secondo scopo del progetto è stato quello di valutare la possibilità di una rapida discriminazione di oli d’oliva caratterizzati da differenti concentrazioni di alchil esteri degli acidi grassi mediante Riflettometria nel Dominio del Tempo (TDR, Time Domain Reflectometry). Il metodo chimico proposto dal Reg. UE n. 61/2011 risulta, infatti, lungo e dispendioso prevedendo una separazione preparativa seguita da analisi gascromatografica. La TDR si presenta, invece, come un metodo alternativo rapido, economico e non distruttivo per la valutazione e discriminazione degli oli d’oliva sulla base di questo parametro qualitativo.
Resumo:
In questa tesi viene presentata una breve trattazione matematica dell' equazione del mezzo poroso. Questa è uno dei più semplici esempi di PDE parabolica non lineare e degenere, che appare nella descrizione di molti fenomeni naturali, legati alla diffusione, filtrazione e propagazione del calore. I risultati sono confrontati con quelli ben noti del modello parabolico classico. Una particolare attenzione è rivolta alla proprietà matematica di propagazione finita che contrasta con il paradosso della velocità infinita, tipico del modello parabolico lineare.