977 resultados para Eberhart, Nelle Richmond
Resumo:
La Pialassa Baiona è una laguna sottoposta a diversi vincoli normativi, visto il suo inquadramento tra le aree SIC e ZPS, e soggetta a diverse sorgenti di disturbo antropico, più intense negli anni ‘50-‘70. Questa tesi si propone lo scopo di valutare il rischio associato ai metalli bivalenti presenti nei sedimenti della Pialassa Baiona attraverso tre approcci: il primo riguarda la determinazione della frazione biodisponibile dei metalli presenti nei sedimenti attraverso la determinazione dei solfuri acidi volatili (AVS) e dei metalli simultaneamente estraibili (SEM), nonché la valutazione della potenziale tossicità dei sedimenti attraverso la valutazione del rapporto molare SEM/AVS, il secondo approccio considera invece il contenuto pseudo totale dei metalli bivalenti (Cd, Cu, Ni, Pb e Zn) e il loro confronto sia con i valori tipici di fondo naturale del Mar Adriatico che con i valori guida di riferimento internazionale (Threshold Effect Level, TEL e Probable Effect Level, PEL) al fine di valutare lo stato di qualità dei sedimenti della zona d’indagine. Il terzo approccio considera l’influenza del gradiente naturale terra-mare tipico delle zone di transizione e del gradiente antropico legato alla vicinanza dell’area industriale alla Pialassa Baiona, sulla distribuzione spaziale dei metalli oggetto di questo studio. I risultati ottenuti evidenziano che l’area più prossima alla zona industriale e al contempo più lontana dall’effetto del ricambio delle acque e di dilavamento ad opera del mare, è risultata quella con livelli significativamente più elevati per la maggior parte dei metalli analizzati. Questo permette di ipotizzare un’influenza diretta delle sorgenti di inquinanti, ma anche un effetto dispersivo della circolazione. Gli AVS hanno invece evidenziato un gradiente terra-mare; ciò comporta che nelle zone più prossime all’influenza del mare si sono riscontrate concentrazioni minori di AVS. La valutazione della potenziale tossicità dei metalli in termini di rapporto SEM/AVS non ha evidenziato la presenza di siti a rischio per il biota acquatico, se non per un unico sito prossimo all’area industriale.
Resumo:
Il progetto prevede l’applicazione dell’analisi del ciclo di vita al sistema integrato di raccolta, riciclaggio e smaltimento dei rifiuti urbani e assimilati. La struttura di una LCA (Life Cycle Assessment) è determinata dalla serie di norme UNI EN ISO 14040 e si può considerare come “un procedimento oggettivo di valutazione dei carichi energetici e ambientali relativi a un processo o un’attività, effettuato attraverso l’identificazione dell’energia e dei materiali usati e dei rifiuti rilasciati nell’ambiente. La valutazione include l’intero ciclo di vita del processo o attività, comprendendo l’estrazione e il trattamento delle materie prime, la fabbricazione, il trasporto, la distribuzione, l’uso, il riuso, il riciclo e lo smaltimento finale”. Questa definizione si riassume nella frase “ from cradle to grave” (dalla culla alla tomba). Lo scopo dello studio è l’applicazione di una LCA alla gestione complessiva dei rifiuti valutata in tre territori diversi individuati presso tre gestori italiani. Due di questi si contraddistinguono per modelli di raccolta con elevati livelli di raccolta differenziata e con preminenza del sistema di raccolta domiciliarizzato, mentre sul territorio del terzo gestore prevale il sistema di raccolta con contenitori stradali e con livelli di raccolta differenziata buoni, ma significativamente inferiori rispetto ai Gestori prima descritti. Nella fase iniziale sono stati individuati sul territorio dei tre Gestori uno o più Comuni con caratteristiche abbastanza simili come urbanizzazione, contesto sociale, numero di utenze domestiche e non domestiche. Nella scelta dei Comuni sono state privilegiate le realtà che hanno maturato il passaggio dal modello di raccolta a contenitori stradali a quello a raccolta porta a porta. Attuata l’identificazione delle aree da sottoporre a studio, è stato realizzato, per ognuna di queste aree, uno studio LCA dell’intero sistema di gestione dei rifiuti, dalla raccolta allo smaltimento e riciclaggio dei rifiuti urbani e assimilati. Lo studio ha posto anche minuziosa attenzione al passaggio dal sistema di raccolta a contenitori al sistema di raccolta porta a porta, evidenziando il confronto fra le due realtà, nelle fasi pre e post passaggio, in particolare sono stati realizzati tre LCA di confronto attraverso i quali è stato possibile individuare il sistema di gestione con minori impatti ambientali.
Resumo:
Negli ultimi decenni il concetto di variabile latente ha riscosso un enorme successo nelle discipline statistiche come attestano i numerosi lavori scientifici presenti in letteratura. In particolare, nelle scienze sociali e in psicometria, l’uso del concetto di variabile latente è stato largamente adottato per far fronte al problema di misurare quantità che, in natura, non possono essere direttamente osservate. La vasta letteratura riguardante questa metodologia si espande, in maniera più limitata, anche al campo della ricerca economica ed econometrica. Nonostante esistano studi di modelli a struttura latente applicati a variabili di tipo economico, molto pochi sono i lavori che considerano variabili finanziarie e, finora, praticamente nessun ricercatore ha messo in connessione la teoria standard di portafoglio con la metodologia dei modelli statistici a variabili latenti. L’obiettivo del lavoro è quello di ricorrere alle potenzialità esplicative ed investigative dei metodi statistici a variabili latenti per l’analisi dei fenomeni finanziari. Si fa riferimento, in particolare, ai modelli a classe latente che consentono di sviluppare soluzioni metodologicamente corrette per importanti problemi ancora aperti in campo finanziario. In primo luogo, la natura stessa delle variabili finanziarie è riconducibile al paradigma delle variabili latenti. Infatti, variabili come il rischio ed il rendimento atteso non possono essere misurate direttamente e necessitano di approssimazioni per valutarne l’entità. Tuttavia, trascurare la natura non osservabile delle variabili finanziarie può portare a decisioni di investimento inopportune o, talvolta, addirittura disastrose. Secondariamente, vengono prese in considerazione le capacità dei modelli a classi latenti nel contesto della classificazione. Per i prodotti finanziari, infatti, una corretta classificazione sulla base del profilo (latente) di rischio e rendimento rappresenta il presupposto indispensabile per poter sviluppare efficaci strategie di investimento. Ci si propone, inoltre, di sviluppare un collegamento, finora mancante, tra uno dei principali riferimenti della finanza moderna, la teoria classica del portafoglio di Markowitz, e la metodologia statistica dei modelli a variabili latenti. In questo contesto, si vogliono investigare, in particolare, i benefici che i modelli a variabili latenti possono dare allo studio di ottimizzazione del profilo rischio - rendimento atteso di un portafoglio di attività finanziarie. Lo sviluppo di numeri indici dei prezzi delle attività finanziarie caratterizzati da una solida base metodologica rappresenta un ulteriore aspetto nel quale i modelli a classe latente possono svolgere un ruolo di fondamentale importanza. In particolare, si propone di analizzare il contesto dei numeri indici dei prezzi settoriali, che costituiscono uno dei riferimenti più importanti nelle strategie di diversificazione del rischio. Infine, il passaggio da una specificazione statica ad una analisi dinamica coglie aspetti metodologici di frontiera che possono essere investigati nell’ambito dei modelli markoviani a classi latenti. Il profilo latente di rischio – rendimento può essere, così, investigato in riferimento alle diverse fasi dei mercati finanziari, per le quali le probabilità di transizione consentono valutazioni di tipo previsivo di forte interesse.
Resumo:
La presente ricerca prende in esame le dinamiche archeologiche e storiche della regione egiziana del Fayyum durante il Nuovo Regno (1552 – 1069 a.C.). L’elaborato è suddiviso in quattro parti: la prima analizza tutti i contesti archeologici che hanno restituito materiale databile al Bronzo Tardo, la seconda riguarda, invece, la catalogazione di tutti i documenti iscritti provenienti dalla regione e databili al medesimo periodo. La terza parte rappresenta la sintesi dei dati acquisiti nelle due precedenti sezioni e descrive il divenire storico regionale tra XVIII, XIX e XX dinastia, mentre la quarta parte, un’appendice prosopografica, chiude l’intero studio. I contesti archeologici fayyumici che hanno restituito materiale databile al Bronzo Tardo sono solamente sette: Gurob, el-Lahun, Haraga, Hawara, Medinet Madi, Shedet e Tebtynis. La distribuzione della documentazione tende a concentrarsi, dal punto di vista territoriale nell’area d’ingresso della regione, mentre dal punto di vista cronologico sono molto ben attestate la seconda metà dell’epoca thutmoside, l’età amarniana e la prima parte dell’epoca ramesside. Per quanto la documentazione regionale pertinente al Nuovo Regno sia estremamente rarefatta, soprattutto se paragonata a quella contestualizzabile cronologicamente ad altri periodi storici, un’attenta analisi delle testimonianze porta a collocare il Fayyum in una fitta trama di rapporti politici, economici e militari non solo con il resto del Paese ma anche con altre aree geografiche, esterne all’Egitto.
Resumo:
Punto di partenza per il lavoro presentato, sono le tematiche legate alle pratiche di consumo di cibo in un’ottica che superi una semplice visione utilitaristica delle stesse, mentre viene evidenziato invece il più profondo rapporto uomo-cibo e i fenomeni di socializzazione che ne scaturiscono. Si trovano pertanto a coniugarsi la sociologia dei consumi e la sociologia della cultura. La base per questa visione del cibo e delle pratiche di produzione e consumo ad esso collegate è l’ipotesi che nel rapporto uomo-cibo sia individuabile un livello di significato superiore al mero utilitarismo/nutrizionismo, che si compone di una dimensione strutturale, una dimensione simbolica ed una dimensione metaforica. Il cibo, e di conseguenza tutte le pratiche ad esso collegate (produzione, elaborazione, consumo), rientrano pertanto in maniera naturale nella categoria “cultura”, e quindi, accostandoci al paradigma del passaggio da natura a società, attraverso il cibo si crea e si alimenta la socialità del consorzio umano, e quindi l’umanità stessa. Accostando a queste concettualizzazioni l’idea che il consumo in generale possa diventare una prassi tramite cui esperire una più diffusa ricerca di sostenibilità nello sviluppo del territorio, (facendosi carico delle conseguenze socio-ambientali derivanti dalla fruizione di determinati oggetti piuttosto che altri), si è sviluppata l’ipotesi che al consumo alimentare possa competere un ruolo precipuamente attivo nella definizione di pratiche sociali orientate alla sostenibilità, capaci cioè di integrare attraverso il consumo – e in relazione all’indebolimento delle tradizionali agenzie di socializzazione – quella perdita di senso civico e solidarietà organizzata che sperimentiamo nelle prassi di vita quotidiana. Sul piano operativo, la tesi è articolata in sei capitoli: • Il percorso presentato prende le mosse dalla considerazione che il cibo, inteso in un’ottica sociologica, costituisce un fattore culturale non irrilevante, anzi fondamentale per il consorzio umano. Si fornisce quindi una breve descrizione del ruolo del cibo nei suoi accostamenti con la definizione di un territorio (e quindi con la sua storia, economia e società), con le arti visive, con il cinema, con la musica, ma anche con la sfera sensoriale (tatto, gusto, olfatto) ed emotivo-cognitiva (psiche) dell’uomo. • Successivamente, si analizza nello specifico la funzione socializzante delle pratiche alimentari, ripercorrendo le tappe principali degli studi classici di sociologia e antropologia dell’alimentazione e introducendo anche l’idea di cibo come simbolo e metafora, che si riflettono sul piano sociale e sulle relazioni tra gli individui. La constatazione che le pratiche legate al cibo sono le uniche attività umane da sempre e per sempre irrinunciabili è un chiaro indicatore di come esse giochino un ruolo fondamentale nella socializzazione umana. • Nel terzo capitolo, la prospettiva simbolico-metaforica è la base di un’analisi di tipo storico delle pratiche alimentari, nello specifico delle pratiche di consumo di cibo, dalle origini dell’umanità ai giorni nostri. Viene presentato un excursus essenziale in cui l’attenzione è focalizzata sulla tavola, sui cibi ivi serviti e sugli eventi di socializzazione che si sviluppano attorno ad essa, considerando situazioni storico-sociali oggettive di cui si è in grado, oggi, di ricostruire le dinamiche e le fasi più significative. • Il quarto capitolo costituisce un momento di riflessione teorica intorno al tema della globalizzazione nella contemporaneità. Sia per una logica progressione cronologica all’interno del lavoro presentato, sia per la rilevanza in quanto inerente alla società attuale in cui viviamo, non si è potuto infatti non soffermarsi un po’ più a fondo sull’analisi delle pratiche alimentari nella contemporaneità, e quindi nella società generalmente definita come “globalizzata” (o “mcdonaldizzata”, per dirla alla Ritzer) ma che in realtà è caratterizzata da un più sottile gioco di equilibri tra dimensione locale e dimensione globale, che si compenetrano come anche nel termine che indica tale equilibrio: il “glocale”. In questo capitolo vengono presentati i principali riferimenti teorici relativi a queste tematiche. • Nel quinto capitolo è stata analizzata, quindi, la declinazione in senso “alimentare” della relazione tra globale e locale, e quindi non solo i mutamenti intercorsi nella contemporaneità nelle pratiche di produzione, scambio e consumo di cibo con particolare riferimento ai sistemi culturali e al territorio, ma anche alcune proposte (sia teoriche che pratiche) a garanzia di uno sviluppo sostenibile del territorio, che trovi i suoi fondamenti sulla perpetuazione di modalità tradizionali di produzione, commercio e consumo di cibo. • Nel sesto capitolo viene analizzato un caso di studio significativo, (il movimento Slow Food, con il suo progetto Terra Madre) senza la pretesa di confermare o smentire né le ipotesi di partenza, né i concetti emersi in itinere, ma semplicemente con l’intenzione di approfondire il percorso svolto attraverso l’esemplificazione operativa e la ricerca entro un piccolo campione composto da testimoni significativi e intervistati, sottoposti a colloqui e interviste incentrate su item inerenti i temi generali di questo lavoro e sul caso di studio considerato. La scelta del caso è motivata dalla considerazione che, alla luce delle filosofia che lo anima e delle attività che svolge, il movimento Slow Food con il progetto Terra Madre costituisce una vera e propria eccellenza nella pianificazione di uno sviluppo sostenibile del territorio e delle sue risorse, tanto economiche quanto sociali e culturali. L’intera analisi è stata condotta tenendo presente l’importanza della comparazione e della collocazione del singolo caso non solo nel contesto sociale di riferimento, ma anche in sintonia con l’ipotesi della ricerca, e quindi con l’assunto che le pratiche alimentari possano guidare uno sviluppo sostenibile del territorio. Per analizzare la realtà individuata, si è in primo luogo proceduto alla raccolta e all’analisi di dati e informazioni volte alla ricostruzione della sua storia e del suo sviluppo attuale. Le informazioni sono state raccolte attraverso l’analisi di materiali, documenti cartacei e documenti multimediali. Si è poi proceduto con colloqui in profondità a testimoni significativi individuati nell’ambito delle attività promosse da Slow Food, con particolare riferimento alle attività di Terra Madre; le informazioni sono state elaborate con l’ausilio dell’analisi del contenuto. Alla luce di quanto analizzato, tanto a livello teorico quanto a livello empirico, la tesi si conclude con alcune considerazioni che, in linea con la finalità dichiarata di approfondire (più che di confermare o smentire) le ipotesi di partenza circa un ruolo fondamentale delle pratiche alimentari nello sviluppo sostenibile del territorio, non possono comunque non tendere ad una convalida dei concetti introduttivi. Si individuano pertanto spunti importanti per affermare che nelle pratiche alimentari, nei tre momenti in cui trovano specificazione (la produzione, lo scambio, il consumo), siano individuabili quei semi valoriali che possono dare solidità alle ipotesi di partenza, e che quindi - nell’intento di operare per uno sviluppo sostenibile del territorio - sia possibile farne un valido strumento al fine di costruire dei veri e propri percorsi di sostenibilità ancorati ai concetti di tutela della tradizione locale, recupero e salvaguardia dei metodi tradizionali di produzione e conservazione, certificazione di tipicità, controllo della distribuzione, riscatto e promozione delle modalità tradizionali di consumo con particolare riferimento alle culture locali.
Resumo:
Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).
Resumo:
“Perdita di fase tra il gruppo riempimento polvere/cronoidi con LVDT ed il gruppo piattello durante la fase di arresto a causa della mancanza imprevista di corrente elettrica”. La perdita della fase tra differenti gruppi può avvenire per due ragioni: 1) a causa della cedevolezza di alcuni elementi della catena cinematica 2) per problemi relativi al software che comanda gli assi elettronici e che è responsabile del movimento coordinato dei vari gruppi. La prima ipotesi è molto improbabile in macchine come l’ADAPTA, dove non sono presenti elementi cinematici con elevata cedevolezza (come ad esempio delle cinghie) essendo i movimenti guidati da camme scanalate (che, contrariamente, sono molto rigide) e/o da camme elettriche (motori Brushless). Il secondo caso invece avviene ogni volta che viene a mancare la corrente elettrica in maniera accidentale (ad esempio a causa di un black-out). La mancanza di energia elettrica impedisce al computer a bordo macchina di continuare a monitorare e controllare il funzionamento dei vari assi elettronici della macchina, che sono comandati da motori brushless, che quindi continuano per inerzia il loro moto fino a fermarsi. Siccome ogni gruppo ha un’inerzia e una velocità/accelerazione istantanea diversa e variabile in funzione della posizione assunta all’interno del proprio ciclo nel momento della mancanza di corrente elettrica, i tempi di arresto risultano differenti, e questo causa la perdita di fase. I gruppi riempimento polvere/cronoidi e spingitori fondelli presentano interferenza meccanica col gruppo piattello per una certa durata del suo ciclo; in questa fase gli elementi entrano nelle boccole porta fondelli delle slitte mobili del piattello. È l’unico caso in tutta la macchina in cui parti meccaniche di gruppi diversi, vanno a “intersecare” i propri spostamenti. La progettazione di macchine che presentano interferenze di questo genere è generalmente sconsigliabile poiché si potrebbe presentare il rischio di uno scontro nel caso avvenga una perdita di fase tra i gruppi. Si sono cercate diverse soluzioni mirate a evitare un urto, derivato dall’interferenza meccanica, in caso di black-out oppure di ridurre il più possibile i danni che questa casualità può portare alla macchina. Il gruppo piattello è definito master rispetto a tutti gli altri gruppi; ha un’inerzia molto piccola e questo fa si che, in caso di black-out, il suo arresto avvenga praticamente istantaneamente, al contrario di ciò che avviene per tutti gli altri gruppi slave dotati di inerzia maggiore. Siccome l’arresto del piattello è istantaneo, il pericolo per tastatori e punzoni sollevatori di urto può avvenire solamente per compenetrazione: se gli elementi sono già all’interno della boccola, e restando fermo il piattello, l’inerzia del gruppo che fa proseguire il moto per alcuni istanti non farebbe altro che portarli fuori dalla boccola, non provocando alcun danno. Non vi è perciò il pericolo di “taglio” di questi elementi da parte del piattello. Perciò l’unica possibilità è che il black-out avvenga in un istante del ciclo dove gli elementi si stanno muovendo per entrare nelle boccole mentre anche il piattello è in rotazione.
Resumo:
Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.
Resumo:
La depurazione è un processo finalizzato a ridurre in modo significativo le sostanze inquinanti presenti nelle acque reflue prima del loro rilascio in ambiente. L’uso delle alghe in impianti di depurazione di acque reflue prende il nome di ficorimedio e potrebbe rappresentare un’alternativa o una integrazione alla depurazione tradizionale dei reflui per il fatto che le alghe operano la rimozione di nutrienti e metalli pesanti dalle acque e al tempo stesso possono fornire biomassa utilizzabile come nuova fonte di energia. Lo scopo principale di questo lavoro è stato di saggiare la capacità depurativa di microalghe idonee per la depurazione dei reflui, questo è stato fatto tramite due esperimenti. Il primo esperimento è stato realizzato in modo tale da simulare un sistema continuo di crescita di Scenedesmus sp. andando a ricreare le stesse condizioni di un sistema all’aperto come negli open ponds, in particolare prelevando periodicamente una parte di biomassa e sostituendola con terreno nuovo. Sono state applicate tre diverse condizioni per analizzare quale metodo permetteva di ottenere maggiori valori di produttività di biomassa e per valutare come questa si diversifica nel tempo nella sua componente biochimica, inoltre si è valutata anche la componente fisiologica, attraverso la misura dell’efficienza fotosintetica. Nel successivo esperimento è stata utilizzata una popolazione algale naturale, proveniente dalla vasca di sedimentazione terziaria del depuratore di Ravenna, e fatta crescere nell’effluente primario. L’esperimento era volto a comprendere i processi di successione delle microalghe in un sistema aperto attraverso uno studio della composizione delle specie nel tempo e a confrontare la crescita e l’efficienza di fitodepurazione della popolazione mista con quelle di Scenedesmus sp. Nelle colture di Scenedesmus sp. in semicontinuo si è visto che il tempo di residenza idraulica minore determina una concentrazione di biomassa inferiore a quella che si ottiene nelle colture con tempi di residenza idraulica maggiori. La produttività dei polisaccaridi (g/L/day) risulta più elevata all’aumentare dei tempi di residenza idraulica, mentre per le proteine l’andamento è inverso. I valori di efficienza fotosintetica evidenziano fenomeni di fotoinibizione nella coltura con minor tempo di residenza idraulica senza che vi sia un danno dell’apparato fotosintetico. L’esperimento basato sulla crescita di una popolazione naturale in coltura batch ha mostrato che la velocità di crescita e la densità di biomassa raggiunta sono di poco inferiori a quelle della monocoltura di Scenedesmus sp. La popolazione è in grado di rimuovere i nutrienti presenti nell’effluente primario dopo 7 giorni, in un tempo maggiore rispetto a quello impiegato da Scenedesmus sp. Questo esperimento ha evidenziato che, sebbene Scenedesmus sp. fosse presente in scarsa quantità all’inizio dell’esperimento, la sua concentrazione aumenta nel tempo dimostrando così di essere maggiormente competitiva rispetto alle altre microalghe presenti nella coltura e di resistere a grazers e patogeni. I risultati ottenuti in questo studio sono importanti per la conduzione di esperimenti di ficodepurazione su scala più ampia e ha permesso di comprendere come la biomassa algale si caratterizza nel tempo andando a simulare le condizioni di crescita in un sistema continuo.
Resumo:
Questo elaborato si pone l'obiettivo di analizzare e valutare la sostenibilità dell'intera filiera dell'olio di palma, che viene importato da paesi del Sud Est asiatico per essere utilizzato in Europa per scopi sia energetici che alimentari. Nell'introduzione è inquadrata la problematica dei biocombustibili e degli strumenti volontari che possono essere utilizzati per garantire ed incentivare la sostenibilità in generale e dei biocombustibili; è presente inoltre un approfondimento sull'olio di palma, sulle sue caratteristiche e sulla crescita che ha subito negli ultimi anni in termini di produzione e compra/vendita. Per questa valutazione sono stati impiegati tre importanti strumenti di analisi e certificazione della sostenibilità, che sono stati applicati ad uno specifico caso di studio: l'azienda Unigrà SpA. La certificazione RSPO (Roundtable on Sustainable Palm Oil) è uno strumento volontario per la garanzia della sostenibilità della filiera dell'olio di palma in termini economici (vitalità nel mercato), ambientali (risparmio delle emissioni di gas ad effetto serra o GHG, conservazione delle risorse naturali e della biodiversità) e sociali (preservazione delle comunità locali e miglioramento nella gestione delle aree di interesse). La Global Reporting Initiative è un'organizzazione che prevede la redazione volontaria di un documento chiamato bilancio di sostenibilità secondo delle linee guida standardizzate che permettono alle organizzazioni di misurare e confrontare le loro performance economiche, sociali e ambientali nel tempo. La Direttiva Comunitaria 2009/28/CE (Renewable Energy Directive o RED) è invece uno strumento cogente nel caso in cui le organizzazioni intendano utilizzare risorse rinnovabili per ottenere incentivi finanziari. A seguito di un calcolo delle emissioni di GHG, le organizzazioni devono dimostrare determinate prestazioni ambientali attraverso il confronto con delle soglie presenti nel testo della Direttiva. Parallelamente alla valutazione delle emissioni è richiesto che le organizzazioni aderiscano a dei criteri obbligatori di sostenibilità economica, ambientale e sociale, verificabili grazie a degli schemi di certificazione che rientrano all'interno di politiche di sostenibilità globale. Questi strumenti sono stati applicati ad Unigrà, un'azienda che opera nel settore della trasformazione e della vendita di oli e grassi alimentari, margarine e semilavorati destinati alla produzione alimentare e che ha recentemente costruito una centrale da 58 MWe per la produzione di energia elettrica, alimentata in parte da olio di palma proveniente dal sud-est asiatico ed in parte dallo scarto della lavorazione nello stabilimento. L'adesione alla RSPO garantisce all'azienda la conformità alle richieste dell'organizzazione per la commercializzazione e la vendita di materie prime certificate RSPO, migliorando l'immagine di Unigrà all'interno del suo mercato di riferimento. Questo tipo di certificazione risulta importante per le organizzazioni perché può essere considerato un mezzo per ridurre l'impatto negativo nei confronti dell'ambiente, limitando deforestazione e cambiamenti di uso del suolo, oltre che consentire una valutazione globale, anche in termini di sostenibilità sociale. Unigrà ha visto nella redazione del bilancio di sostenibilità uno strumento fondamentale per la valutazione della sostenibilità a tutto tondo della propria organizzazione, perché viene data uguale rilevanza alle tre sfere della sostenibilità; la validazione esterna di questo documento ha solo lo scopo di controllare che le informazioni inserite siano veritiere e corrette secondo le linee guida del GRI, tuttavia non da giudizi sulle prestazioni assolute di una organizzazione. Il giudizio che viene dato sulle prestazioni delle organizzazioni e di tipo qualitativo ma non quantitativo. Ogni organizzazione può decidere di inserire o meno parte degli indicatori per una descrizione più accurata e puntuale. Unigrà acquisterà olio di palma certificato sostenibile secondo i principi previsti dalla Direttiva RED per l'alimentazione della centrale energetica, inoltre il 10 gennaio 2012 ha ottenuto la certificazione della sostenibilità della filiera secondo lo schema Bureau Veritas approvato dalla Comunità Europea. Il calcolo delle emissioni di tutte le fasi della filiera dell'olio di palma specifico per Unigrà è stato svolto tramite Biograce, uno strumento di calcolo finanziato dalla Comunità Europea che permette alle organizzazioni di misurare le emissioni della propria filiera in maniera semplificata ed adattabile alle specifiche situazioni. Dei fattori critici possono però influenzare il calcolo delle emissioni della filiera dell'olio di palma, tra questi i più rilevanti sono: cambiamento di uso del suolo diretto ed indiretto, perché possono provocare perdita di biodiversità, aumento delle emissioni di gas serra derivanti dai cambiamenti di riserve di carbonio nel suolo e nella biomassa vegetale, combustione delle foreste, malattie respiratorie, cambiamenti nelle caratteristiche dei terreni e conflitti sociali; presenza di un sistema di cattura di metano all'oleificio, perché gli effluenti della lavorazione non trattati potrebbero provocare problemi ambientali; cambiamento del rendimento del terreno, che può influenzare negativamente la resa delle piantagioni di palma da olio; sicurezza del cibo ed aspetti socio-economici, perché, sebbene non inseriti nel calcolo delle emissioni, potrebbero provocare conseguenze indesiderate per le popolazioni locali. Per una valutazione complessiva della filiera presa in esame, è necessario ottenere delle informazioni puntuali provenienti da paesi terzi dove però non sono di sempre facile reperibilità. Alla fine della valutazione delle emissioni, quello che emerge dal foglio di Biograce e un numero che, sebbene possa essere confrontato con delle soglie specifiche che descrivono dei criteri obbligatori di sostenibilità, non fornisce informazioni aggiuntive sulle caratteristiche della filiera considerata. È per questo motivo che accanto a valutazioni di questo tipo è necessario aderire a specifici criteri di sostenibilità aggiuntivi. Il calcolo delle emissioni dell'azienda Unigrà risulta vantaggioso in quasi tutti i casi, anche considerando i fattori critici; la certificazione della sostenibilità della filiera garantisce l'elevato livello di performance anche nei casi provvisti di maggiore incertezza. L'analisi del caso Unigrà ha reso evidente come l'azienda abbia intrapreso la strada della sostenibilità globale, che si traduce in azioni concrete. Gli strumenti di certificazione risultano quindi dei mezzi che consentono di garantire la sostenibilità della filiera dell'olio di palma e diventano parte integrante di programmi per la strategia europea di promozione della sostenibilità globale. L'utilizzo e l'implementazione di sistemi di certificazione della sostenibilità risulta per questo da favorire.
Resumo:
Lo sviluppo urbano avvenuto negli ultimi 20 anni soprattutto nelle grandi città, ma anche in quelle più piccole, è stato definito con il termine americano “urban sprawl”. In linea del tutto generale, lo sprawl può essere definito come la tendenza delle aree urbane a svilupparsi in maniera dispersa e disorganizzata nelle campagne circostanti. I principali impatti del fenomeno riguardano il consumo e l’impermeabilizzazione del suolo oltre a forti impatti su tutte le altre matrici ambientali. Per una corretta pianificazione necessita di essere studiato e quantificato nelle sue differenti declinazioni. Nella presente tesi vengono riportati i risultati della analisi diacronica nel Comune di Carpi (Provincia di Modena) attraverso una sequenza temporale di mappe dell’uso/copertura del suolo (1954,1976,1997,2003,2008) appositamente redatte. Vengono, in particolare, analizzati gli aspetti legati allo sviluppo urbano (del comune e delle frazioni di sua competenza) al fine di evidenziare l’occorrenza di sprawl. Ciò è stato fatto attraverso l’analisi degli andamenti dell’area urbana e di quella agricola nel tempo, delle trasformazioni principali avvenute nel territorio (sia in termini qualitativi che quantitativi), dell’evoluzione della rete infrastrutturale e infine mediante il calcolo di indici propri dell’ecologia del paesaggio utilizzati in molti studi sullo sprawl urbano. Dai risultati di questa analisi emerge che il territorio in esame si è fortemente trasformato dal 1954 al 1976; in particolare l’urbanizzazione è avvenuta in un primo tempo a carico del centro principale di Carpi e in seguito (1976-2008) ha interessato maggiormente le frazioni secondarie e l’edificato discontinuo lungo le principali infrastrutture viarie. Questo aspetto è attribuibile al fenomeno dello sprawl in termini di sviluppo periurbano e di invasione delle campagne. Il calcolo degli indici ha evidenziato che l’area urbana totale è fortemente dispersa, sia rispetto al centro principale che considerata come totale, fin dal 1954 (alta entropia relativa di Shannon) e contemporaneamente il territorio agricolo si presenta frammentato (Patch Density e Mean Patch Size) e con un’eterogeneità ambientale abbastanza limitata; questi indici non mostrano però un andamento che indichi un aumento dello sprawl nella sequenza temporale. Ciò che gli indici rilevano è l’urbanizzazione veloce e compatta avvenuta tra il 1954 ed il 1976. Il presente studio rivela quindi l’inadeguatezza degli indici scelti ad evidenziare il fenomeno dello sprawl negli ultimi vent’anni nel territorio d’indagine a causa della bassa sensibilità a trasformazioni molto moderate ed a scale di dettaglio dell’area urbana molto piccole.
Resumo:
Il lavoro ripercorre le tracce che gli ebrei portoghesi, esuli dopo il biennio 1496-97, lasciarono nel loro cammino attraverso l'Europa. In particolare, l'interesse si concentra sulla breve parentesi italiana, che grazie all'apertura e alla disponibilità di alcuni Signori, come i Gonzaga di Mantova, i Medici, i Dogi della Serenissima e gli Este, risulta ricchissima di avvenimenti e personaggi, decisivi anche per la storia culturale del Portogallo. L'analisi parte evidenziando l'importanza che ebbe la tipografia ebraica in Portogallo all'epoca della sua introduzione nel Paese; in secondo luogo ripercorre la strada che, dal biennio del primo decreto di espulsione e del conseguente battesimo di massa, porta alla nascita dell'Inquisizione in Portogallo. Il secondo capitolo tenta di fare una ricostruzione, il più possibile completa e coerente, dei movimenti degli esuli, bollati come marrani e legati alle due maggiori famiglie, i Mendes e i Bemveniste, delineando poi il primo nucleo di quella che diventerà nel Seicento la comunità sefardita portoghese di Amsterdam, dove nasceranno le personalità dissidenti di Uriel da Costa e del suo allievo Spinoza. Il terzo capitolo introduce il tema delle opere letterarie, effettuando una rassegna dei maggiori volumi editi dalle officine tipografiche ebraiche stanziatesi in Italia fra il 1551 e il 1558, in modo particolare concentrando l'attenzione sull'attività della tipografia Usque, da cui usciranno numerosi testi di precettistica in lingua ebraica, ma soprattutto opere cruciali come la famosa «Bibbia Ferrarese» in castigliano, la «Consolação às Tribulações de Israel», di Samuel Usque e la raccolta composta dal romanzo cavalleresco «Menina e Moça» di Bernardim Ribeiro e dall'ecloga «Crisfal», di un autore ancora non accertato. L'ultimo capitolo, infine, si propone di operare una disamina di queste ultime tre opere, ritenute fondamentali per ricostruire il contesto letterario e culturale in cui la comunità giudaica in esilio agiva e proiettava le proprie speranze di futuro. Per quanto le opere appartengano a generi diversi e mostrino diverso carattere, l'ipotesi è che siano parte di un unicum filosofico e spirituale, che intendeva sostanzialmente indicare ai confratelli sparsi per l'Europa la direzione da prendere, fornendo un sostegno teoretico, psicologico ed emotivo nelle difficili condizioni di sopravvivenza, soprattutto dell'integrità religiosa, di ciascun membro della comunità.
Resumo:
Nell’ambito di questa Tesi sono state affrontate le fasi di progettazione, sviluppo e caratterizzazione di materiali biomimetici innovativi per la realizzazione di membrane e/o costrutti 3D polimerici, come supporti che mimano la matrice extracellulare, finalizzati alla rigenerazione dei tessuti. Partendo dall’esperienza di ISTEC-CNR e da un’approfondita conoscenza chimica su polimeri naturali quali il collagene, è stata affrontata la progettazione di miscele polimeriche (blends) a base di collagene, addizionato con altri biopolimeri al fine di ottimizzarne i parametri meccanici e la stabilità chimica in condizioni fisiologiche. I polimeri naturali chitosano ed alginato, di natura polisaccaridica, già noti per la loro biocompatibilità e selezionati come additivi rinforzanti per il collagene, si sono dimostrati idonei ad interagire con le catene proteiche di quest’ultimo formando blends omogenei e stabili. Al fine di ottimizzare l’interazione chimica tra i polimeri selezionati, sono stati investigati diversi processi di blending alla base dei quali è stato applicato un processo complesso di co-fibrazione-precipitazione: sono state valutate diverse concentrazioni dei due polimeri coinvolti e ottimizzato il pH dell’ambiente di reazione. A seguito dei processi di blending, non sono state registrate alterazioni sostanziali nelle caratteristiche chimiche e nella morfologia fibrosa del collagene, a riprova del fatto che non hanno avuto luogo fenomeni di denaturazione della sua struttura nativa. D’altro canto entrambe le tipologie di compositi realizzati, possiedano proprietà chimico-fisiche peculiari, simili ma non identiche a quelle dei polimeri di partenza, risultanti di una reale interazione chimica tra le due molecole costituenti il blending. Per entrambi i compositi, è stato osservato un incremento della resistenza all’attacco dell’enzima collagenasi ed elevato grado di swelling, quest’ultimo lievemente inferiore per il dispositivo contenente chitosano. Questo aspetto, negativo in generale per quanto concerne la progettazione di impianti per la rigenerazione dei tessuti, può avere aspetti positivi poiché la minore permeabilità nei confronti dei fluidi corporei implica una maggiore resistenza verso enzimi responsabili della degradazione in vivo. Studi morfologici al SEM hanno consentito di visualizzare le porosità e le caratteristiche topografiche delle superfici evidenziando in molti casi morfologie ibride che confermano il buon livello d’interazione tra le fasi; una più bassa omogeneità morfologica si è osservata nel caso dei composti collagene-alginato e solo dopo reidratazione dello scaffold. Per quanto riguarda le proprietà meccaniche, valutate in termini di elasticità e resistenza a trazione, sono state rilevate variazioni molto basse e spesso dentro l’errore sperimentale per quanto riguarda il modulo di Young; discorso diverso per la resistenza a trazione, che è risultata inferiore per i campione di collagene-alginato. Entrambi i composti hanno comunque mostrato un comportamento elastico con un minore pre-tensionamento iniziale, che li rendono promettenti nelle applicazioni come impianti per la rigenerazione di miocardio e tendini. I processi di blending messi a punto nel corso della ricerca hanno permesso di ottenere gel omogenei e stabili per mezzo dei quali è stato possibile realizzare dispositivi con diverse morfologie per diversi ambiti applicativi: dispositivi 2D compatti dall’aspetto di membrane semitrasparenti idonei per rigenerazione del miocardio e ligamenti/tendini e 3D porosi, ottenuti attraverso processi di liofilizzazione, con l’aspetto di spugne, idonei alla riparazione/rigenerazione osteo-cartilaginea. I test di compatibilità cellulare con cardiomioblasti, hanno dimostrato come entrambi i materiali compositi realizzati risultino idonei a processi di semina di cellule differenziate ed in grado di promuovere processi di proliferazione cellulare, analogamente a quanto avviene per il collagene puro.
Resumo:
Le conoscenze relative al controllo ormonale del metabolismo epatico dei pesci sono ancora piuttosto limitate e per molti anni sono state controverse. Per lungo tempo si è ritenuto che le catecolamine, adrenalina e noradrenalina, agissero nel fegato dei pesci soltanto attraverso i recettori adrenergici di tipo β. Quindi l’assetto recettoriale dei mammiferi, che comprende recettori α e β, era considerato frutto di un processo evolutivo che non aveva ancora avuto luogo nei pesci. Successivamente, nel fegato di vari teleostei è stata dimostrata la presenza di recettori sia α che β. Tuttavia il ruolo fisiologico dei due tipi di recettori non è ancora chiaro. Per esempio, in acciughe e sgombri non è stato fatto alcuno studio sulla risposta alle catecolamine ottenuta attraverso i recettori α e β, nel fegato di trota i recettori α non sono accoppiati alla cascata fisiologica che porta al rilascio di glucosio, e in anguilla e pesce gatto l’azione delle catecolamine attraverso recettori β è predominante rispetto a quella attraverso recettori α. L’utilizzo di ligandi farmacologici non ha portato a chiarimenti significativi, perché la loro specificità per i recettori di mammifero non trova sempre riscontro nei pesci. In questo studio, quindi, abbiamo studiato l’espressione dei geni codificanti per i recettori α e β adrenergici attraverso la tecnica della PCR real time, ottenendo i primi dati in letteratura per quanto riguarda la loro quantificazione assoluta. L’organismo modello utilizzato è stata l’anguilla, teleosteo caratterizzato da un ciclo biologico molto particolare in cui si distinguono nettamente una fase gialla ed una argentina. Le anguille argentine non sono mai state studiate a tale proposito, e date le estreme differenze nella disponibilità e nell’uso delle risorse energetiche in questi due stadi di crescita, il presente studio ha mirato a valutare la differente sensibilità alle catecolamine da parte degli epatociti isolati da anguille gialle ed argentine. I nostri dati hanno confermato quanto solo ipotizzato nei vari studi pubblicati negli ultimi due decenni, ma mai avvalorato da risultati sperimentali, cioè che i recettori α e β sono contemporaneamente espressi negli epatociti dell’anguilla, sia gialla che argentina, e la proporzione tra loro giustifica il ruolo significativamente maggiore giocato dai recettori β. Nelle anguille argentine infatti, come nelle gialle, l’effetto dell’adrenalina sul rilascio di glucosio ottenuto attraverso recettori β è chiaramente predominante. Inoltre, i nostri dati indicano che in due diverse fasi del ciclo vitale dell’anguilla, così come si osserva nell’ontogenesi dei mammiferi, i recettori adrenergici sono espressi in quantità differente.
Resumo:
Il lavoro di tesi ha l’obiettivo di dare seguito e profondità alle verifiche già condotte negli anni scorsi da Monticini e Baglioni, da Angelini e da Vento e La Ganga. Nel dettaglio nella serie storica dei tassi scambiati, sul comparto ON, del mercato e-Mid, riscontrano empiricamente che i tassi scambiati nelle prime ore del mattino sono in media superiori rispetto a quelli del pomeriggio. In pratica emerge un costo orario positivo. Il campione è costituito da 196.571 contratti eseguiti tra il 1 gennaio 2007 ed il 31 marzo 2009, sul comparto ON. Le analisi si sono concentrate sull’intensità del reversal patttern, oltre che su base giornaliera anche su base settimanale (day of the week) e su base mensile (month of the year effect). Le medesime analisi sono state condotte sull’ultimo giorno del periodo di mantenimento, e su particolari giorni che hanno scandito la crisi finanziaria. Per osservare la dinamica del reversal pattern prima e durante la crisi, le medesime verifiche sono condotte su tre sub campioni. Il primo considera tutti i contratti dall’inizio e fino all’8 agosto compreso; il secondo da quest’ultimo e fino al 12 settembre 2008 compreso; l’ultimo dal fallimento della Lehman e fino al 31 marzo 2009. I risultati confermano la presenza del reversal, per tutti i giorni e per tutti i mesi. Tuttavia quando il campione è suddiviso, le stime del primo campione, perdono di significatività, in particolare il giovedì ed il mese di febbraio. Sel medesimo periodo di campionamento al fine di verificare se il reversal pattern sia attribuire in parte anche alla liquidità del mercato, si è indagato su tutte le proposte in bid ed in offer, e dei relativi volumi, ovvero sul bid ask spread, il relativo prezzo medio ed i volumi. Anche in questo caso le analisi si sono concentrate oltre che sul campione originario, anche sui tre sub campioni in cui è stato successivamente suddiviso. . Quando infine si analizzano volumi e proposte, si nota innanzitutto che, al mattino, quando i prezzi scambiati sono maggiori il bid ask spread è minimo. Viceversa il pomeriggio quando il BAS è minore. La stessa dinamica si osserva per lo spread effettivo (SE), il quale è pari alla differenza tra prezzo medio delle contrattazioni e prezzo medio delle proposte. Infine i volumi sia delle proposte che delle contrattazioni, sono maggiori al mattino rispetto al pomeriggio e tendono a decrescere con l’intensificarsi della crisi. Inoltre i volumi in bid sono sempre maggiori rispetto a quelli in offer al mattino piuttosto che al pomeriggio.