21 resultados para similarité

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il pirofosfato di vanadile VPP è il catalizzatore utilizzato per l’ossidazione di n-butano ad anidride maleica AM. Durante reazione, il VPP subisce delle modifiche strutturali, soprattutto nella parte superficiale, cataliticamente attiva. Queste modifiche sono funzione della composizione della fase gas e delle caratteristiche del catalizzatore, in particolare del rapporto P/V. Mediante prove di reattività in condizioni stazionarie e non-stazionarie, condotte in cella ambientale accoppiata ad uno spettrofotometro Raman, si è arrivati a capire quali fasi e in che condizioni queste si sviluppano sulla superficie del VPP. Si è inoltre capito che la fase selettiva nel prodotto desiderato, AM, è costituita da δ-VOPO4. Non è ancora noto con esattezza perché questo composto offra le prestazioni migliori; si ipotizza che ciò sia dovuto alla capacità di dare luogo a cicli redox tra V5+ e V4+ con cinetiche veloci, grazie al fatto che ha similarità strutturali con il VPP. La formazione di questa fase avviene più facilmente in presenza di un eccesso di P. Oltre al P, un altro fattore che influisce sulle prestazioni catalitiche è la presenza di elementi promotori. Tra questi, il Nb è uno dei più importanti, come dimostato dalle prove di reattività condotte in miscela butano-aria, utilizzando catalizzatori promossi con diversi quantitativi di Nb. In questo modo si è capito che alle basse temperature occorre un catalizzatore con una maggiore quantità di Nb (per esempio, rapporto V/Nb=46) per favorire la formazione della fase δ-VOPO4; mentre alle alte temperature, sono sufficienti piccole quantità di elemento promotore, in quanto indipendentemente dal rapporto P/V la fase predominante è δ-VOPO4. Una quantità elevata di Nb ha implicazioni negative sulla selettività, sia alle alte che alle basse temperature di reazione, perché favorisce la formazione di una superficie catalitica troppo ossidata. L’obiettivo del mio lavoro di tesi è stato quello di dimostrare una correlazione tra l’effetto del Nb e la formazione della fase δ-VOPO4. Per farlo, si è deciso di partire da VOPO4•2H2O (VPD) promosso con diversi quantitativi di Nb. Infatti, com’era già stato dimostrato in precedenza, il VPD che si forma in ambiente di reazione per ossidazione superficiale del VPP dà luogo a disidratazione a δ-VOPO4. Le trasformazioni del VPD promosso con Nb sono state monitorate utilizzando la spettroscopia Raman. Le prove condotte hanno confermato che l’addizione di Nb al VPP favorisce la formazione del composto desiderato; tuttavia, la medesima trasformazione non è stata osservata partendo dal composto VPD contenente Nb.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vera identità di un individuo è un'informazione molto preziosa. In generale le persone non hanno particolari remore a rivelare la propria identità e il riconoscimento non rappresenta un problema; l'unica motivazione che può portare un individuo a nascondere la propria identità è l'elusione dei rilevamenti delle forze dell'ordine per un certo tipo di attività criminale. In questi casi, risulta difficile procedere al riconoscimento attraverso caratteristiche biometriche come iride o impronte digitali, in quanto la loro acquisizione presuppone un certo grado di collaborazione da parte del soggetto. Il volto, invece, può essere ottenuto in modo segreto, non solo attraverso le ben note telecamere di videosorveglianza ma anche attraverso la ricostruzione fornita da un eventuale testimone oculare che assiste all'evento criminoso. Quest'ultimo, attraverso la descrizione verbale del sospettato e con l'ausilio delle capacità di un disegnatore, fornisce un contributo per la costruzione di un identikit o sketch del soggetto, favorendo quindi il processo di individuazione dell'identità del malvivente. Solitamente, una volta prodotto lo sketch, si effettua un confronto visivo con le fotografie segnaletiche già in possesso degli inquirenti e memorizzate all'interno di un'ipotetica banca dati. Tale confronto viene eseguito 'manualmente' da persone incaricate, comportando un inevitabile spreco di tempo; dotarsi di un sistema automatico in grado di ricercare la foto del sospettato più somigliante allo sketch a partire da quelle presenti all'interno di un database potrebbe aiutare le forze di polizia in una più celere individuazione del colpevole. Purtroppo, i metodi presenti allo stato dell'arte sul riconoscimento facciale non consentono un confronto diretto: fotografia e disegno sono due rappresentazioni del volto molto differenti in termini di ricchezza di dettagli e tessitura e pertanto non direttamente confrontabili. L'obiettivo del progetto di tesi è quello di esplorare una nuova strategia di valutazione automatica della similarità tra uno sketch e una fotografia consistente principalmente in un'analisi della conformazione dei volti, mediante estrazione dei contorni e calcolo di apposite feature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La produzione di materie plastiche da fonti rinnovabili è oggi uno dei principali obiettivi della chimica dei polimeri. Anche se i materiali termoplastici da fonte “bio” sono stati già ampiamente studiati, non si può affermare lo stesso per i termoidurenti. Le resine epossidiche sono ampiamente usate come rivestimenti, adesivi e materiali strutturali grazie alle loro eccezionali proprietà meccaniche e alla buona resistenza al calore. Nonostante ciò, la ricerca svolta in questo campo su tali materiali è molto limitata e la loro produzione deriva ancora dalla reazione tra epicloridrina, cancerogena, e bisfenolo A, sospettato di avere effetti sul sistema ormonale. Per questo, la possibilità di trovare un sostituto per il bisfenolo A è un punto cruciale della chimica per dare una risposta eco-sostenibile alla domanda dei consumatori. L’acido difenolo è stato identificato come un buon canditato per la sostituzione del bisfenolo A, grazie alla similarità delle loro strutture. Dal momento che esso deriva dalla reazione tra acido levulinico, derivante da biomassa e fenolo, è possibile considerarlo un reagente di origine bio. Lo scopo di questo lavoro è quello di sostituire il fenolo con composti fenolici di origine naturale come m-cresolo, guaiacolo, catecolo e resorcinolo. Le molecole risultanti saranno confrontate con il bisfenolo A per ciò che concerne la possibilità di formare i rispettivi glicidil eteri tramite reazione con epicloridrina. Questo permetterebbe la formazione di un pre-polimero epossidico proveniente da fonte rinnovabile in un prossimo futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I sistemi mobili rappresentano una classe di sistemi distribuiti caratterizzata dalla presenza di dispositivi portatili eterogenei quali PDA, laptop e telefoni cellulari che interagiscono tra loro mediante una rete di interconnessione wireless. Una classe di sistemi mobili di particolare interesse è costituita dai sistemi basati sul modello di interazione publish/subscribe. Secondo tale schema, i nodi all'interno di una rete possono assumere due ruoli differenti: i produttori di informazione, chiamati publisher, ed i consumatori di informazione, chiamati subscriber. Tipicamente, l'interazione tra essi è mediata da un gestore di eventi che indirizza correttamente le informazioni ricevute dai publisher verso i subscriber interessati, sulla base degli interessi espressi da questi ultimi tramite sottoscrizioni. Nella progettazione di sistemi mobili, a differenza di quelli tradizionali basati su nodi fissi, bisogna tenere conto di problemi quali la scarsa capacità computazionale dei dispositivi e la limitata larghezza di banda delle reti wireless. All'interno di tale ambito, stanno recentemente assumendo sempre maggiore importanza i sistemi context-aware, ovvero sistemi mobili che sfruttano i dati provenienti dall'ambiente circostante e dai dispositivi stessi per adattare il proprio comportamento e notificare agli utenti la presenza di informazioni potenzialmente utili. Nello studio di questi sistemi, si è notato che i nodi che si trovano nella stessa area geografica generano tipicamente delle sottoscrizioni che presentano tra loro un certo grado di similarità e coperture parziali o totali. Il gruppo di ricerca del DEIS dell’Università di Bologna ha sviluppato un'infrastruttura di supporto per sistemi mobili context-aware, chiamata SALES. Attualmente il sistema progettato non considera le similarità delle sottoscrizioni e quindi non sfrutta opportunamente tale informazione. In questo contesto si rende necessario l'adozione di opportune tecniche di aggregazione delle sottoscrizioni atte ad alleggerire la computazione dei nodi mobili e le comunicazioni tra loro. Il lavoro presentato in questa tesi sarà finalizzato alla ricerca, all'adattamento ed all'implementazione di una tecnica di aggregazione delle sottoscrizioni. Tale tecnica avrà lo scopo di rilevare e sfruttare le similarità delle sottoscrizioni ricevute dal sistema al fine di ridurne il numero; in questo modo, quando un nodo riceverà un dato, il processo di confronto tra l'insieme delle sottoscrizioni memorizzate e il dato ricevuto sarà più leggero, consentendo un risparmio di risorse computazionali. Inoltre, adattando tali tecniche, sarà possibile modulare anche il traffico dati scaturito dalle risposte alle sottoscrizioni. La struttura di questa tesi prevede un primo capitolo sui sistemi context-aware, descrivendone le principali caratteristiche e mettendo in luce le problematiche ad essi associate. Il secondo capitolo illustra il modello di comunicazione Publish/Subscribe, modello di riferimento per i moderni sistemi context-aware e per i sistemi mobili in generale. Il terzo capitolo descrive l'infrastruttura SALES sulla quale si è progettata, implementata e testata la soluzione proposta in questa tesi. Il quarto capitolo presenta le principali tecniche di aggregazione delle sottoscrizioni e spiega come possono essere adattate al contesto di questa tesi. Il quinto capitolo effettua l'analisi dei requisiti per comprendere meglio il comportamento della soluzione; seguono la progettazione e l’implementazione della soluzione su SALES. Infine, il sesto capitolo riporta in dettaglio i risultati ottenuti da alcuni degli esperimenti effettuati e vengono messi a confronto con quelli rilevati dal sistema di partenza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il mio lavoro di tesi si intitola "Alla ricerca dell'autenticità. Kathy Acker e Vladimir Sorokin a confronto". La comparazione riflette sulle inaspettate similarità sociali, e di conseguenza letterarie, di Usa e Urss dagli anni Settanta agli anni Novanta, indagate attraverso l'arte dei due scrittori citati nel titolo.  Kathy Acker è nata nel 1947 a New York e durante gli anni Settanta frequentò assiduamente la comunità artistica definita "Downtown New York". Vladimir Sorokin è nato nel 1955 nei dintorni di Mosca e negli stessi anni entrò all'intorno del circolo "Moskovskij Konzeptualism" della grande città. Queste due comunità artistiche erano create dalla libera aggregazione di artisti, scultori, letterati, poeti, musicisti.. in un vortice creativo in contrasto con la chiusura sociale e artistica degli ambiti definibili come accademici o ufficiali.  Con le loro opere Acker e Sorokin cercarono di distruggere le norme sovraimposte e arrivare all'"autenticità" riguardo al sé, all'homo sovieticus, all'uomo americano e riguardo al genere umano in generale.  Nell'arco del mio studio l'utopia del radioso avvenire sovietico e l'utopia del sogno americano d'oltreoceano si sono rivelati come prigioni della vita di ogni giorno, in grado di allontanare l'uomo dai suoi desideri veri e dai suoi impulsi più umani. Le risposte artistiche delle due comunità in generale e dei due scrittori in particolare sono volte alla liberazione dai vincoli dell'utopia e alla riscoperta di ciò che è ritenuto come debolezza e bassezza dell'uomo. Le due comunità artistiche cercarono il contatto con un vasto pubblico non elitario, cercano un linguaggio comprensibile da tutti. Contemporaneamente il corpo con tutte le sue pulsioni cerca di riguadagnare il proprio spazio in un sè egemonizzato dalla mente. Ma quel che queste comunità artistiche soprattutto fanno è porre domande alla coscienza e incoscienza della società. Cercano di trasformare il terrore quotidiano in qualcosa di comprensibile e scaricabile, un ruolo che una volta era proprio dei rituali trasgressivi del popolo e che dal Novecento, con la trasformazione del popolo in massa omologata, sono venuti a mancare. Acker e Sorokin cercano strutture narrative e artistiche in grado di proporre alla “corporealtà collettiva” una via di redenzione ritualistica. Questi artisti non si conformano e sono in grado di illuminare, di dare sostentamento all'individuo nella ricerca personale di una lingua, di un pensiero, di un mito in cui vivere. Reagiscono al balbettio omologante delle società di massa, non si adeguano a nessuna forma fissa e anche la loro arte continua a evolvere, a fallire, a cercare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le tecniche di next generation sequencing costituiscono un potente strumento per diverse applicazioni, soprattutto da quando i loro costi sono iniziati a calare e la qualità dei loro dati a migliorare. Una delle applicazioni del sequencing è certamente la metagenomica, ovvero l'analisi di microorganismi entro un dato ambiente, come per esempio quello dell'intestino. In quest'ambito il sequencing ha permesso di campionare specie batteriche a cui non si riusciva ad accedere con le tradizionali tecniche di coltura. Lo studio delle popolazioni batteriche intestinali è molto importante in quanto queste risultano alterate come effetto ma anche causa di numerose malattie, come quelle metaboliche (obesità, diabete di tipo 2, etc.). In questo lavoro siamo partiti da dati di next generation sequencing del microbiota intestinale di 5 animali (16S rRNA sequencing) [Jeraldo et al.]. Abbiamo applicato algoritmi ottimizzati (UCLUST) per clusterizzare le sequenze generate in OTU (Operational Taxonomic Units), che corrispondono a cluster di specie batteriche ad un determinato livello tassonomico. Abbiamo poi applicato la teoria ecologica a master equation sviluppata da [Volkov et al.] per descrivere la distribuzione dell'abbondanza relativa delle specie (RSA) per i nostri campioni. La RSA è uno strumento ormai validato per lo studio della biodiversità dei sistemi ecologici e mostra una transizione da un andamento a logserie ad uno a lognormale passando da piccole comunità locali isolate a più grandi metacomunità costituite da più comunità locali che possono in qualche modo interagire. Abbiamo mostrato come le OTU di popolazioni batteriche intestinali costituiscono un sistema ecologico che segue queste stesse regole se ottenuto usando diverse soglie di similarità nella procedura di clustering. Ci aspettiamo quindi che questo risultato possa essere sfruttato per la comprensione della dinamica delle popolazioni batteriche e quindi di come queste variano in presenza di particolari malattie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro svolto in questa tesi s’inserisce e sviluppa soprattutto nel campo dell’analisi della vulnerabilità relativa agli tsunami ed è centrato sull’analisi della vulnerabilità di strutture ed edifici. Per la precisione si è focalizzata l’attenzione su un’area geografica specifica, cioè si è considerata l’ipotesi che un maremoto colpisca le coste orientali della Sicilia ed in particolare della città di Siracusa. Questo lavoro di tesi prenderà in considerazione due modelli distinti per la stima della vulnerabilità: il modello SCHEMA (SCenarios for Hazard-induced Emergencies MAnagement) che prende il nome dal progetto europeo in cui è stato sviluppato e il modello PTVA (Papathoma Tsunami Vulnerability Assessment) introdotto da Papathoma et al. (2003) e successivamente modificato da Dominey-Howes et al. (2007) e da Dall’Osso et al. (2009). Tali modelli sono esempi dei due possibili approcci (quantitativo e qualitativo). Nei seguenti capitoli si sono trattate le curve di fragilità e di danno, in particolare seguendo la metodologia di Koshimura et al. (2009) ed il lavoro di Valencia et al. (2011). A seguire sono stati descritti i due metodi utilizzati per lo studio della vulnerabilità (SCHEMA, PTVA) ed il lavoro che è stato condotto nell’area di Siracusa. Il lavoro di tesi si è concluso mostrando i risultati della classificazione di vulnerabilità evidenziando e discutendo differenze e similarità delle mappe risultanti dai due metodi applicati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Mar Adriatico presenta una grande ricchezza di diversità di specie ittiche, molte delle quali sono rilevanti dal punto di vista commerciale, altre rappresentano un contributo alla complessità biologica dell’ambiente. In questo lavoro di tesi tecniche di analisi multivariata sono state utilizzate per analizzare la composizione in specie ittiche demersali dell’Alto e Medio Adriatico e la diversità, per arrivare a delineare un quadro generale di tali comunità. I dati utilizzati sono stati raccolti nelle campagne GRUND effettuate in Adriatico dal 1982 al 2007 nell’area delle acque nazionali italiane ed internazionali, al limite delle acque croate e slovene. La Cluster Analysis effettuata sui dati di abbondanza (kg/h) delle specie ha permesso di definire quattro assemblaggi principali di specie (40% di similarità) associati all’area di costa, all’area costiera fuori Venezia, a un area detritica e a un area più profonda. All’interno di questi assemblaggi, stabili per tutti gli anni, sono stati ritrovate delle associazioni più ristrette (similarità del 50%). Profondità e tipologia di fondale sembrano essere i fattori determinanti la divisione di questi assemblaggi. Tali risultati sono stati confermati anche dall’analisi di ordinamento non metrico MDS. Con l’analisi ANOSIM si è cercato di vedere se ci sono differenze significative tra gli assemblaggi annuali delle aree identificate, e se gli assemblaggi di specie variano significativamente nel corso degli anni all’interno di ciascuna area. Con l’analisi SIMPER si sono identificate quelle specie caratterizzanti gli assemblaggi e le specie che sono responsabili della diversità tra aree. Sono stati calcolati gli indici di diversità per indagare la diversità e la variabilità temporale delle comunità demersali che caratterizzano le quattro aree principali. E’ stata fatta un’analisi temporale delle abbondanze medie delle specie commerciali maggiormente rappresentative dei quattro assemblaggi principali ritrovati, e un’analisi su come variano le taglie nel corso degli anni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Millisecond Pulsar (MSP) sono stelle di neutroni magnetizzate e rapidamente rotanti, prodotte da fenomeni di accrescimento di massa e momento angolare da parte di una stella compagna. Secondo lo scenario canonico di formazione, è atteso che la stella compagna sia una nana bianca di He, privata del suo inviluppo esterno. Tuttavia, in un numero crescente di casi, la compagna della MSP è stata identificata in una stella di piccola massa, non degenere, ancora soggetta a fenomeni di perdita di massa. Queste MSP vengono comunemente chiamate ''Black-Widow'' (BW) e sono l'oggetto di studio di questa tesi. In particolare, l'obiettivo di questo lavoro è l'identificazione della controparte ottica della PSR J1953+1846A nell'ammasso globulare M71. Essa è classificata come BW, data la piccola massa della compagna (~0.032 Msun) e il segnale radio eclissato per circa il 20% dell'orbita. Tramite l'uso di osservazioni ad alta risoluzione con il telescopio spaziale Hubble, abbiamo identificato, in una posizione compatibile con la MSP, un debole oggetto, la cui variabilità mostra una periodicità coerente con quella del sistema binario, noto dalla banda radio. La struttura della curva di luce è indicativa della presenza di fenomeni di irraggiamento della superficie stellare esposta all'emissione della MSP e dalla sua analisi abbiamo stimato alcuni parametri fisici della compagna, come la temperatura superficiale ed il fattore di riempimento del lobo di Roche. Dal confronto tra le curve di luce X ed ottica, abbiamo inoltre trovato evidenze a favore della presenza di shocks nelle regioni intrabinarie. Abbiamo quindi evidenziato l'estrema similarità di questo sistema con l'unica compagna di BW attualmente nota in un ammasso globulare: PSR J1518+0204C. Infine, abbiamo effettuato uno studio preliminare delle controparti ottiche delle sorgenti X dell'ammasso. Abbiamo così identificato due AGN che, insieme ad altre due galassie, hanno permesso la determinazione del moto proprio assoluto delle stelle dell'ammasso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’esplosione della crisi nel 2007 ha contribuito alla diffusione di numerosi termini e concetti afferenti al dominio nella finanza strutturata non solo nelle pagine dei quotidiani specializzati, ma anche di quelli generalisti, producendo uno straniante «sentimento neologico» che ha accresciuto il senso di inaccessibilità e soggezione che in molti nutrono nei riguardi delle “cose della finanza” e delle notizie economiche, percepite come ostiche e incomprensibili. Questo lavoro mira a dimostrare che le cause di questo imperante senso di smarrimento di fronte all’informazione economica sono da addurre a più fattori: alla comune scarsa dimestichezza con il linguaggio e le “cose della finanza” dei cittadini; alla complessità dei concetti che i termini in questione veicolano e alla maniera in cui essi vengono presentati dalla vulgata giornalistica. Questa tesi si articola in quattro capitoli: nel primo si discute del tirocinio svolto presso la DGT della Commissione Europea, che ha fornito degli utili spunti per la stesura del presente lavoro; nel secondo si evidenzia l’importanza di una corretta educazione finanziaria per la formazione di una cittadinanza consapevole, in grado alimentare un sistema finanziario sano. Nel terzo capitolo si discute di finanza strutturata, volgendo particolare attenzione al CDO, di cui anche la Consob ha sottolineato l’intrinseca complessità e che ha assunto un ruolo da protagonista nell’esplosione della crisi dei mutui subprime. Nel quarto capitolo si delinea un breve quadro dell’informazione finanziaria in Italia e in Germania; mediante l’analisi di due corpora comparabili e diacronici si mira, infine, a osservare in che modo i giornali, nel corso degli anni, hanno veicolato il concetto che sottende al termine CDO rintracciando, contestualmente, similarità e differenze tra la stampa generalista e quella specializzata e tra i quotidiani tedeschi e quelli italiani.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le variabili ambientali e lo sfruttamento della pesca sono dei possibili fattori nel determinare la struttura della comunità demersale. L’area di studio è il Golfo di Antalya, con un area aperta ed una chiusa ad ogni attività di pesca, il periodo di studio ha coperto tre stagioni (primavera, estate, autunno). Lo scopo è quello di delineare un quadro generale sulla distribuzione spaziale e temporale delle risorse alieutiche demersali in quest’area. In questo lavoro di tesi la PCA è stata usata al fine di determinare le variabili ambientali (ossigeno, salinità, temperatura, pH, materia sospesa) che determinano maggiormente la differenza tra le stazioni, tecniche di analisi multivariata hanno invece indagato una possibile variazione su scala spaziale e temporale dei parametri abiotici. La Cluster Analysis effettuata sui dati di abbondanza ha delineato quattro raggruppamenti principali, due ad una profondità minore di 100 m e due ad una profondità maggiore (40% di similarità). Questi risultati sono confermati dall’analisi MDS. L’analisi SIMPER ha messo in evidenza le specie che maggiormente incidono sulla differenza tra strati di profondità. Gli indici di biodiversità sono stati calcolati per indagare la diversità e la variabilità temporale e spaziale della comunità demersale. Due procedure la BIO-ENV e la DistLM (Distance-based linear models) sono state effettuate per individuare le variabili abiotiche che potrebbero essere responsabili dei diversi raggruppamenti nella struttura del popolamento demersale. Le specie commerciali: Mullus barbatus, Upeneus moluccensis, Upeneus pori sono state prese come oggetto per la ricerca di possibili effetti della pesca a livello di popolazione. Per i dati di abbondanza e di biomassa di queste specie è stata eseguita l’analisi multivariata MANOVA (Multivariate Analysis of Variance) al fine di trovare eventuali variazioni dovute ai fattori profondità, stagione e transetto. Per ogni specie è stata valutata la sex ratio. Il metodo Bhattacharya ha permesso di determinare le classi di età e la loro abbondanza. In ultimo la relazione peso-lunghezza è stata ricavata separatamente per gli individui maschi e femmine al fine di determinare il tipo di crescita per ogni sesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La geometria euclidea risulta spesso inadeguata a descrivere le forme della natura. I Frattali, oggetti interrotti e irregolari, come indica il nome stesso, sono più adatti a rappresentare la forma frastagliata delle linee costiere o altri elementi naturali. Lo strumento necessario per studiare rigorosamente i frattali sono i teoremi riguardanti la misura di Hausdorff, con i quali possono definirsi gli s-sets, dove s è la dimensione di Hausdorff. Se s non è intero, l'insieme in gioco può riconoscersi come frattale e non presenta tangenti e densità in quasi nessun punto. I frattali più classici, come gli insiemi di Cantor, Koch e Sierpinski, presentano anche la proprietà di auto-similarità e la dimensione di similitudine viene a coincidere con quella di Hausdorff. Una tecnica basata sulla dimensione frattale, detta box-counting, interviene in applicazioni bio-mediche e risulta utile per studiare le placche senili di varie specie di mammiferi tra cui l'uomo o anche per distinguere un melanoma maligno da una diversa lesione della cute.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'indagine ha riguardato il profilo del vento nei primi 30 metri dello strato limite atmosferico stabile nell'ambito della teoria di similarità locale. Ad oggi, diversi esperimenti hanno confermato la validità della teoria per strati-limite su terreni livellati e superfici omogenee. Tali condizioni ideali sono però infrequenti nella realtà ed è perciò importante capire quali siano i limiti della similarità locale per strati-limite su terreni complessi e superfici disomogenee. Entrambe le condizioni sono presenti a Ny-Alesund (Svalbard, Norvegia) dove il Consiglio Nazionale delle Ricerche (CNR), nel 2009, ha installato una torre di 30 m, la Amudsen-Nobile Climate Change Tower (CCT), per lo studio dello strato-limite artico. Il lavoro di tesi ha riguardato misure di vento e turbolenza acquisite sulla CCT da maggio 2012 a maggio 2014. Il confronto tra le velocità del vento misurate dagli anemometri installati sulla CCT, ha rivelato criticità nel dato sonico manifestatesi con sovrastime sistematiche e maggiore erraticità rispetto alle misure provenienti dagli anemometri a elica. Un test condotto fra diversi metodi per il calcolo dei gradienti verticali della velocità del vento ha rivelato scarsa sensibilità dei risultati ottenuti al particolare metodo utilizzato. Lo studio ha riguardato i gradienti verticali adimensionali della velocità del vento nei primi 30-m dello strato limite stabile. Deviazioni significative tra i tra le osservazioni e i valori predetti dalla similarità locale sono state osservate in particolare per i livelli più distanti dal suolo e per valori crescenti del parametro di stabilità z/L (L, lunghezza di Obukhov locale). In particolare, si sono osservati gradienti adimensionali inferiori a quelli predetti dalle più usate relazioni di flusso-gradiente. Tali deviazioni, presenti perlopiù per z/L>0.1, sono state associate ad un effetto di accentuazione della turbolenza da parte delle irregolarità del terreno. Per condizioni meno stabili, z/L<0.1, scarti positivi tra i gradienti osservati e quelli attesi sono stati attribuiti alla formazione di strati limite interni in condizioni di vento dal mare verso la costa. Sono stati proposti diversi metodi per la stima dell'effetto della self-correlazione nella derivazione delle relazioni di flusso-gradiente, dovuta alla condivisione della variabile u*. La formula per il coefficiente lineare di self correlazione e le sue distribuzioni di probabilità empiriche sono state derivate e hanno permesso di stimare il livello di self-correlazione presente nel dataset considerato.