499 resultados para giochi favorevoli e non favorevoli criterio di Kelly
Resumo:
Negli ultimi decenni nell’Alto Adriatico, in particolare lungo la costa dell’Emilia-Romagna, si sono verificati fenomeni eutrofici con lo svilupparsi di “red tides”, con frequenza e intensità tali da aver assunto un aspetto cronico. Da questi episodi è nata l’esigenza sia di un efficiente monitoraggio dell’area, che viene svolto dal 1976 dalla Struttura Oceanografica Daphne (ARPA), sia di ricercare e studiare i meccanismi che guidano il processo. Questa zona è sotto stretta osservazione anche nell’ambito Direttiva europea 2008/56/CE, Marine Strategy Framework Directive (MSFD), in quanto l’alto Adriatico rappresenta la zona maggiormente a rischio per i fenomeni di eutrofizzazione e di bloom algali. Il lavoro di questa tesi nasce dalla necessità di approfondire diversi aspetti sollevati dalla MSFD che non vengono soddisfatti da una normale attività di monitoraggio. La frequenza e l’enorme mole di dati raccolti spesso non permette nè di riunire insieme per un unico sito tutti i parametri biotici e abiotici indicativi dello stato dell’ambiente, né di fare elaborazioni statistiche approfondite. Per fare questo sono state condotte in due siti prospicienti la località di Marina di Ravenna (costa emiliano-romagnola): DIGA SUD e GEOMAR, distanti rispettivamente 1.5 Km e 12 Km dalla costa, analisi quali-quantitative dei popolamenti fitoplanctonici presenti e concomitanti analisi dei parametri chimico-fisici (nutrienti, temperatura e salinità) dell’acqua. Il campionamento bimensile è iniziato ad aprile del 2013 ed è terminato ad ottobre dello stesso anno. Dai dati ottenuti dalle suddette analisi, avvalendosi di diversi strumenti statistici, si è cercato di capire se c’è differenza fra i due siti oggetto di studio in termini di variabili abiotiche ambientali e di popolazione fitoplanctonica dovuta ad effetto geografico (distanza dalla costa). Inoltre si è cercato di individuare come le variabili ambientali vadano ad influenzare la distribuzione dei diversi taxa fitoplanctonici e di segnalare l’eventuale presenza di specie microalgali potenzialmente tossiche e/o dannose.
Resumo:
Nella poetica di Vinicio Capossela la geografia non è soltanto questione di meridiani e paralleli, ma è soprattutto quella che ognuno di noi si costruisce attraverso i viaggi, i racconti, la creatività: le strade e le vicende della nostra vita sono secondo lui «come le colonne delle cartine antiche, fanno la nostra geografia». Una geografia fatta di luoghi reali per lui significativi - per esempio Calitri, terra d'origine di suo padre, o Milano, città in cui vive - ma anche di mondi inventati, abitati da creature prodigiose e miti letterari, che tutti insieme formano il canto “polytropo” (multiforme) di Capossela. Un canto permeato da un perenne sentimento di clandestinità e da un desiderio insoddisfatto di “barrio”, di casa. Il sentimento dell'assenza è profondamente legato alla biografia del cantautore e alla sua geografia personale, ma anche al mondo affascinante e nascosto delle musiche da cui egli trae ispirazione, le cosiddette “musiche dell'Assenza” o “musiche d'Altrove”, in senso sia spaziale che temporale. In questo lavoro trovano spazio principalmente il tango e il rebetiko e le implicazioni culturali e linguistiche che essi hanno avuto nell'immaginario di Capossela, il quale ha riadattato alcune canzoni di questi due generi; per quanto riguarda il castigliano attraverso la singolare pratica della “traduzione ad orecchio”, mentre per quanto riguarda il greco riscrivendo completamente i testi. In particolar modo sarà descritto l'incontro di Capossela con la Grecia e con il rebetiko, che ha dato vita ad una fase inedita e particolarmente feconda della sua produzione, con la nascita del disco “Rebetiko Gymnastas”, il libro “Tefteri” e il docu-film “Indebito”, creato in collaborazione con il regista Andrea Segre.
Resumo:
La firma digitale è uno degli sviluppi più importanti della crittografia a chiave pubblica, che permette di implementarne le funzionalità di sicurezza. La crittografia a chiave pubblica, introdotta nel 1976 da Diffie ed Hellman, è stata l'unica grande rivoluzione nella storia della crittografia. Si distacca in modo radicale da ciò che l'ha preceduta, sia perché i suoi algoritmi si basano su funzioni matematiche e non su operazioni di sostituzione e permutazione, ma sopratutto perché è asimmetrica: prevede l'uso di due chiavi distinte (mentre nelle crittografia simmetrica si usa una sola chiave condivisa tra le parti). In particolare, le funzioni matematiche su cui si basa tale crittografia sono funzioni ben note nella Teoria dei Numeri: ad esempio fattorizzazione, calcolo del logaritmo discreto. La loro importanza deriva dal fatto che si ritiene che siano 'computazionalmente intrattabili' da calcolare. Dei vari schemi per la firma digitale basati sulla crittografia a chiave pubblica, si è scelto di studiare quello proposto dal NIST (National Institute of Standard and Technology): il Digital Signature Standard (DSS), spesso indicato come DSA (Digital Signature Algorithm) dal nome dell'algoritmo che utilizza. Il presente lavoro è strutturato in tre capitoli. Nel Capitolo 1 viene introdotto il concetto di logaritmo discreto (centrale nell'algoritmo DSA) e vengono mostrati alcuni algoritmi per calcolarlo. Nel Capitolo 2, dopo una panoramica sulla crittografia a chiave pubblica, si dà una definizione di firma digitale e delle sue caratteristiche. Chiude il capitolo una spiegazione di un importante strumento utilizzato negli algoritmi di firma digitale: le funzioni hash. Nel Capitolo 3, infine, si analizza nel dettaglio il DSA nelle tre fasi che lo costituiscono (inizializzazione, generazione, verifica), mostrando come il suo funzionamento e la sua sicurezza derivino dai concetti precedentemente illustrati.
Resumo:
Lo scopo di questa tesi è lo studio degli aspetti procedurali e dosimetrici in angiografie periferiche che utilizzano la CO2 come mezzo di contrasto. La tecnica angiografica consiste nell’imaging radiologico di vasi sanguigni tramite l’iniezione di un mezzo di contrasto, e il suo uso è in costante incremento a causa dell’aumento di pazienti con malattie vascolari. I mezzi di contrasto iodati sono i più comunemente utilizzati e permettono di ottenere immagini di ottima qualità, ma presentano il limite di una elevata nefrotossicità. La CO2 è considerata un’interessante alternativa al mezzo iodato, per la sua acclarata biocompatibilità, soprattutto per pazienti con elevati fattori di rischio (diabete e/o insufficienza renale). Il suo utilizzo presenta comunque alcuni aspetti problematici, dovuti allo stato gassoso e al basso contrasto intrinseco rispetto alla soluzione iodata. Per quest’ultimo motivo si ritiene generalmente che l’utilizzo della CO2 comporti un aumento di dose rispetto ai mezzi di contrasto tradizionali. Il nostro studio, effettuato su diversi apparati radiologici, ha dimostrato che i parametri di emissione radiologica sono gli stessi per i protocolli di angiografia tradizionale, con iodio, e quelli che utilizzano CO2. Questa evidenza suggerisce che i protocolli CO2 operino solo sul trattamento delle immagini ottenute e non sulla modalità di acquisizione, e dal punto di vista dosimetrico l’angiografia con CO2 è riconducibile all’angiografia tradizionale. L’unico fattore che potrebbe portare a un effettivo incremento di dose al paziente è un allungamento dei tempi di scopia e di procedura, che andrebbe verificato con una campagna di misure in ambito clinico. Sulla base della stessa evidenza, si ritiene che la visualizzazione della CO2 possa essere ulteriormente migliorata attraverso l’ottimizzazione dei parametri di emissione radiologica (kVp, frame rate e durata degli impulsi) attualmente predisposti per l’uso di mezzi di contrasto iodati.
Resumo:
Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.
Resumo:
In questa tesi viene presentata un'analisi numerica dell'evoluzione dinamica del modello di Heisenberg XXZ, la cui simulazione è stata effettuata utilizzando l'algoritmo che va sotto il nome di DMRG. La transizione di fase presa in esame è quella dalla fase paramagnetica alla ferromagnetica: essa viene simulata in una catena di 12 siti per vari tempi di quench. In questo modo si sono potuti esplorare diversi regimi di transizione, da quello istantaneo al quasi-adiabatico. Come osservabili sono stati scelti l'entropia di entanglement, la magnetizzazione di mezza catena e lo spettro dell'entanglement, particolarmente adatti per caratterizzare la fisica non all'equilibrio di questo tipo di sistemi. Lo scopo dell'analisi è tentare una descrizione della dinamica fuori dall'equilibrio del modello per mezzo del meccanismo di Kibble-Zurek, che mette in relazione la sviluppo di una fase ordinata nel sistema che effettua la transizione quantistica alla densità di difetti topologici, la cui legge di scala è predicibile e legata agli esponenti critici universali caratterizzanti la transizione.
Resumo:
L'accrescimento è un processo fondamentale in astrofisica data la sua grandissima efficienza. Nel 1959 venne individuato il primo Quasar (pur non sapendo realmente di cosa si trattasse) e nel 1963 l'astronomo tedesco Maarten Schmidt scoprì che tale oggetto, di magnitudine apparente 13 (si credeva fosse una stella), aveva un redshift z = 0:37. Stelle di magnitudine 13 non dovrebbero avere un redshift così grande. Tale oggetto doveva trovarsi a grande distanza ed emettere una luminosità molto alta, superiore anche a quella di un'intera galassia. Processi termonucleari non erano sufficientemente efficienti per spiegare un'emissione di questo tipo: si capì presto che tale emissione dovesse avere origine gravitazionale, fosse cioè dovuta all'accrescimento di materia su un buco nero. In questa tesi, dopo aver spiegato come l'accrescimento rappresenti un'importante fonte di energia in astrofisica, presenterò, nel Capitolo 1, il modello di Bondi, presentato nel 1952 da Hermann Bondi. Tale modello è il più semplice modello di accrescimento e, pur essendo basato su ipotesi (che vedremo) che trascurano diversi aspetti importanti, risulta comunque un modello fondamentale, perché permette di ricavare quantità rilevanti in astrofisica. Successivamente, nel Capitolo 2, ricaverò il valore della Luminosità di Eddington, che esprime la massima luminosità che può emettere un corpo in simmetria sferica. Anche questo risultato verrà ricavato imponendo ipotesi abbastanza restrittive, quindi non andrà interpretato come un limite invalicabile. Nel Capitolo 3 parlerò (più qualitativamente, e senza la pretesa di entrare nei dettagli) di come si formano i dischi di accrescimento, che si originano quando la materia che va ad accrescere ha un momento angolare non nullo: quindi non siamo più nel caso di accrescimento a simmetria sferica. Infine, parlerò dei processi che originano gli spettri osservati degli AGN, riferendomi prevalentemente a quei processi che originano il continuo dello spettro.
Resumo:
In this thesis I analyzed the microwave tomography method to recognize breast can- cer. I study how identify the dielectric permittivity, the Helmoltz equation parameter used to model the real physic problem. Through a non linear least squares method I solve a problem of parameters identification; I show the theoric approach and the devel- opment to reach the results. I use the Levenberg-Marquardt algorithm, applied on COMSOL software to multiphysic models; so I do numerical proofs on semplified test problems compared to the specific real problem to solve.
Resumo:
In questo documento ho analizzato lo scenario della passata e dell’odierna Internet, dal classico protocollo HTTP, al protocollo sperimentale QUIC, argomento di questa tesi. In primis ho analizzato gli attuali protocolli utilizzati nella rete e ricercato i motivi che hanno portato a crearne di nuovi, successivamente ho effettuato un analisi teorica del protocollo affidandomi ai documenti forniti dall'IETF, poi in un capitolo a sé ho descritto l'handshake crittografato tipico di questo protocollo ed infine nell'ultimo capitolo ho mostrato graficamente e praticamente come lavora il protocollo in una reale implementazione. Dopo aver completato questa tesi, mi sono potuto rendere conto di quanto sia necessario un cambio di rotta verso protocolli di rete più veloci, sicuri ed affidabili. I classici protocolli oramai non sono più sufficienti a soddisfare le migliaia di richieste di connessione e presentano, come si vedrà, delle lacune a cui bisogna porre rimedio. Gran parte della popolazione mondiale ha accesso al web,ed è uno strumento ormai alla portata di tutti e non più privilegio di pochi e ci si augura per il bene della rete Internet che tale protocollo o protocolli simili possano prendere presto piede per una migliore esperienza di navigazione a livello globale. Probabilmente saranno necessari molti anni, ma l’idea che già si pensi ad un futuro non tanto prossimo fa ben sperare su quello che ci aspetta. Nella lettura di questa tesi si vedrà come queste ultime affermazioni possano diventare realtà.
Resumo:
Il termine Ecomuseo deriva dal greco οἶκος da intendersi come l’insieme delle relazioni all’interno di una comunità e delle interazioni tra la comunità e il territorio. Si tratta di un particolare processo di conoscenza, tutela e valorizzazione del patrimonio locale, materiale e immateriale. In mancanza di una legge quadro nazionale, in Italia finora sono state dodici le regioni e le province a sancire autonomamente l’istituzione e il riconoscimento degli Ecomusei, promuovendone la creazione. La Provincia Autonoma di Bolzano non è ancora dotata di uno strumento normativo per il riconoscimento degli Ecomusei. Si è pertanto valutata la possibilità di applicare lo strumento alle particolari condizioni socio-culturali del territorio sudtirolese. L’indagine è stata svolta a partire dall’analisi dei presupposti necessari alla realizzazione di un Ecomuseo generalmente condivisi dalle normative quali l’omogeneità culturale e la presenza di beni di comunità. Entrambi i criteri hanno richiesto di essere interpretati, sulla base di indagini storiche, sociali e culturali, svolte sotto il profilo architettonico, analizzando non solo la produzione edilizia nel tempo, ma anche i contenuti politici e culturali, la variazione della percezione del costruito da parte della popolazione e la conseguente evoluzione nell’approccio nei confronti della preesistenza. Verificate le condizioni di applicabilità dei criteri si è proceduto alla progettazione di un Ecomuseo Interculturale per la città di Merano (EIM), valutandone oggetto, finalità e struttura. Il progetto ha compreso anche la proposta di una sede per l’Ecomuseo, realizzando uno studio per il restauro di un’officina ferroviaria dei primi del Novecento riconoscendo in essa un importante documento di cultura materiale. In conclusione è stata quindi elaborata una proposta per un progetto di legge provinciale in materia di Ecomusei, quale fattore fondamentale per la loro organizzazione, promozione e diffusione.
Resumo:
In questa tesi esaminerò alcuni aspetti fondamentali della tecnologia moderna tra cui alcune leggi chiave che spiegheranno come mai la crescente disoccupazione in Europa, e in occidente in generale, non è causata solamente da crisi finanziarie o politiche, ma dall'intrinseca natura della tecnologia stessa. Ci troveremo nella situazione nella quale una persona non sia in grado di trovare un'occupazione non a causa di demeriti propri, ma poiché il sistema è diventato talmente ottimizzato da tagliare completamente la necessità di alcuni ruoli chiave nel sistema di lavoro. Spiegherò quali sono le strategie da attuare per evitare di trovarsi in questo nuovo sistema di occupazione senza un ruolo al suo interno, quali sono le politiche che un governo debba attuare per garantire i necessari bisogni primari dei propri cittadini, le strutture che ogni azienda deve creare per rimanere all'interno del proprio settore di investimento.
Resumo:
degli elementi vegetali nella dinamica e nella dispersione degli inquinanti nello street canyon urbano. In particolare, è stato analizzata la risposta fluidodinamica di cespugli con altezze diverse e di alberi con porosità e altezza del tronco varianti. Il modello analizzato consiste in due edifici di altezza e larghezza pari ad H e lunghezza di 10H, tra i quali corre una strada in cui sono stati modellizati una sorgente rappresentativa del traffico veicolare e, ai lati, due linee di componenti vegetali. Le simulazioni sono state fatte con ANSYS Fluent, un software di "Computational Fluid Dynamics"(CFD) che ha permesso di modellizare la dinamica dei flussi e di simulare le concentrazioni emesse dalla sorgente di CO posta lungo la strada. Per la simulazione è stato impiegato un modello RANS a chiusura k-epsilon, che permette di parametrizzare i momenti secondi nell'equazione di Navier Stokes per permettere una loro più facile risoluzione. I risultati sono stati espressi in termini di profili di velocità e concentrazione molare di CO, unitamente al calcolo della exchange velocity per quantificare gli scambi tra lo street canyon e l'esterno. Per quanto riguarda l'influenza dell'altezza dei tronchi è stata riscontrata una tendenza non lineare tra di essi e la exchange velocity. Analizzando invece la altezza dei cespugli è stato visto che all'aumentare della loro altezza esiste una relazione univoca con l'abbassamento della exchange velocity. Infine, andando a variare la permeabilità delle chiome degli alberi è stata trovatta una variazione non monotonica che correla la exchange velocity con il parametro C_2, che è stata interpretata attraverso i diversi andamenti dei profili sopravento e sottovento. In conclusione, allo stadio attuale della ricerca presentata in questa tesi, non è ancora possibile correlare direttamente la exchange velocity con alcun parametro analizzato.
Resumo:
Nella tesi viene presentata la definizione assiomatica del moto browniano, che ha le sue basi nella teoria della probabilità, come risulta naturale, essendo il moto browniano l'immagine macroscopica che emerge dallo spostamento casuale di una particella che si muove in uno spazio d-dimensionale senza compiere salti eccessivamente grandi. Perciò preliminarmente si propone la descrizione dello spazio di probabilità in cui si lavora, in particolare si costruisce una misura di probabilità, detta misura di Wiener. Quindi si dà prova dell'effettiva esistenza del moto browniano attraverso due diverse argomentazioni, che fanno riferimento l’una a Paley e Wiener, l'altra a Lévy. Nel primo caso la costruzione del moto browniano è basata sull'utilizzo di variabili aleatorie complesse con distribuzione gaussiana e di serie convergenti in L^2 e adopera risultati della teoria delle serie di Fourier; nel secondo caso il moto browniano è costruito come limite uniforme di funzioni continue. Infine si analizzano le principali caratteristiche matematiche del moto browniano, in particolare le proprietà di continuità Holder, di non monotonia e di non differenziabilità.
Resumo:
Il lavoro si è articolato in due parti: sintesi di una molecola antiossidante (lipofenolo), che in prospettiva dovrà essere prodotta a partire da sottoprodotti dell’industria alimentare. La molecola ottenuta, già studiata nello sviluppo di emulsioni, è stata in questo lavoro testata nella formulazione di prodotti da forno, nei quali l’ossidazione lipidica è un processo difficilmente controllabile, se non con l’impiego di grassi saturi, come palma o strutto e sego. L’ossidazione incide profondamente sulla qualità e sulla sicurezza dell’alimento. È per questo che numerosi studi si sono rivolti, in questi anni, verso i meccanismi di antiossidazione nei sistemi reali. Partendo da una panoramica sui sottoprodotti della filiera alimentare, in questo lavoro si è ottimizzata una reazione di lipofilizzazione tra tirosolo e acido oleico e si è impiegato il prodotto nella formulazione tarallini per verificarne l’effettiva capacità di allungare la shelf life del prodotto ritardando l’insorgenza dell’ossidazione, con esiti più che soddisfacenti evidenziati dai dati ottenuti tramite tecniche di ossidazione forzata (Oxitest®) , analisi della componente volatile (SPME-GC-MS) e misurazione del numero di perossido.
Distribuzione spaziale e temporale delle specie macrobentoniche aliene e native in ambienti portuali
Resumo:
La maggior parte degli insediamenti urbani si trova in prossimità delle coste e più del 50% della popolazione vive entro 100 km dal mare. Questo significa che l’ambiente marino è fortemente influenzato dalle attività antropiche e, per questo, è necessario creare un piano di gestione degli ambienti costieri, in quanto la resilienza dell’habitat marino dipende dall’uso sostenibile degli ecosistemi marini urbani. Lo scopo dello studio è quello di analizzare la distribuzione spaziale e temporale delle specie native e aliene, presenti sulle banchine del porto-canale di Ravenna. Sono stati analizzati i popolamenti intertidali di 6 siti lungo il canale Candiano dal 2016 al 2018 nei mesi di maggio. I risultati hanno illustrato un gradiente terra-mare a partire dai siti più interni lungo il porto-canale. Le specie più abbondanti identificate sono i due mitili Mytilus Galloprovincialis (specie nativa) e Xenostrobus securis (specie invasiva); queste specie si avvicendano nelle stazioni centrali del Candiano e si cedono il posto a vicenda: la specie nativa rimane nelle acque esterne e meno impattate mentre quella invasiva resta nei siti interni più soggetti a disturbi di vario tipo, come quello antropico. La terza specie più numerosa è Sphaeroma serratum, isopode nativo del Mediterraneo, presente da sempre nelle zone lagunari del ravennate; in questo studio è stato rinvenuto nelle stazioni più interne, che potrebbe sfruttare come rifugio da possibili competitori. I risultati hanno mostrato l’abbondanza e la diversità delle specie, indigene e non ,del porto di Ravenna: su un totale di 71 taxa diversi, le specie aliene rappresentavano il 17%; queste sono state rinvenute soprattutto nei siti di campionamento più interni, dove sono presenti condizioni più limitanti e sfavorevoli per le specie native. Inoltre, è stato osservato come la diversità specifica aumenti lungo il gradiente mare-terra, considerando le zone con maggiore diversità anche quelle con maggiore specie aliene.