460 resultados para Ancora


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi si inserisce in un progetto di ricerca internazionale denominato “Venice Time Machine” dove collaborano fianco a fianco l’Ecole Polytechnique Fédérale de Lausanne e l’Università Cà Foscari di Venezia. Grazie al coinvolgimento dell’Archivio di Stato di Venezia, decine di chilometri di documenti verranno digitalizzati e indicizzati, al fine di creare un database open access da utilizzare per la ricerca e l’istruzione. Molti di questi documenti tuttavia sono particolarmente fragili oppure, come nel caso di diversi testamenti, non sono mai stati aperti, per cui le tecniche tradizionali di digitalizzazione non sono applicabili. Di qui deriva l’interesse per sperimentare nuove tecniche non invasive al fine di digitalizzare e quindi rendere fruibili al pubblico anche questi documenti altrimenti inaccessibili. Lo scopo dell’analisi tomografica è quello di creare un modello 3D del documento, su cui effettuare successive elaborazioni al fine di ottenere una separazione virtuale delle pagine e quindi permetterne la lettura anche se il manoscritto è chiuso e non può essere aperto. In particolare in questo lavoro di tesi sono stati analizzati due testamenti: un testamento del 1679, usato come campione di prova per verificare la migliore sorgente di raggi X ai fini della ricostruzione tomografica e anche per valutare l’efficacia della tecnica, e il testamento Alchier-Spiera (dai nomi dei testatori), datato 1634, di maggiore interesse poiché ancora chiuso. I risultati ottenuti sono molto soddisfacenti, poiché elaborando le ricostruzioni tomografiche è possibile la lettura virtuale sia di parole che di intere frasi. Questo risultato porta nuova linfa al progetto che, di base, si pone l’obiettivo di convertire in formato digitale decine di km di testi conservati in Archivio, ma che ha trovato, in questo tipo di testamenti chiusi, un ostacolo molto difficile da superare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della tesi è di stimare le prestazioni del rivelatore ALICE nella rivelazione del barione Lambda_c nelle collisioni PbPb usando un approccio innovativo per l'identificazione delle particelle. L'idea principale del nuovo approccio è di sostituire l'usuale selezione della particella, basata su tagli applicati ai segnali del rivelatore, con una selezione che usi le probabilità derivate dal teorema di Bayes (per questo è chiamato "pesato Bayesiano"). Per stabilire quale metodo è il più efficiente , viene presentato un confronto con altri approcci standard utilizzati in ALICE. Per fare ciò è stato implementato un software di simulazione Monte Carlo "fast", settato con le abbondanze di particelle che ci si aspetta nel nuovo regime energetico di LHC e con le prestazioni osservate del rivelatore. E' stata quindi ricavata una stima realistica della produzione di Lambda_c, combinando i risultati noti da esperimenti precedenti e ciò è stato usato per stimare la significatività secondo la statistica al RUN2 e RUN3 dell'LHC. Verranno descritti la fisica di ALICE, tra cui modello standard, cromodinamica quantistica e quark gluon plasma. Poi si passerà ad analizzare alcuni risultati sperimentali recenti (RHIC e LHC). Verrà descritto il funzionamento di ALICE e delle sue componenti e infine si passerà all'analisi dei risultati ottenuti. Questi ultimi hanno mostrato che il metodo risulta avere una efficienza superiore a quella degli usuali approcci in ALICE e che, conseguentemente, per quantificare ancora meglio le prestazioni del nuovo metodo si dovrebbe eseguire una simulazione "full", così da verificare i risultati ottenuti in uno scenario totalmente realistico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo breve elaborato si vuole spiegare l’importanza dello studio di un corpo celeste mediante l’osservazione del suo spettro ovvero un grafico del flusso emesso in funzione della frequenza o della lunghezza d’onda nel quale sono presenti righe spettrali, formate dall’interazione tra materia e radiazione, a causa dell’assorbimento od emissione di fotoni a seguito di transizioni elettroniche, ma anche vibrazionali e rotazionali per le molecole. In particolare, dall’analisi delle righe spettrali si traggono diverse informazioni sull’oggetto, quali, la composizione e l’abbondanza delle specie chimiche che lo compongono in base al tipo di righe presenti e alla loro intensità, si deduce la temperatura e la pressione dell’oggetto studiato dalla larghezza di queste, ancora, informazioni sul moto relativo e la distanza dall’osservatore misurando lo shift delle righe; infine densità e campi magnetici del mezzo interstellare. Per molti oggetti astronomici, troppo distanti, lo studio dello spettro è l’unico modo per trarre conclusioni sulla loro natura. Per questo, nel primo capitolo si ricava l’equazione del trasporto radiativo, soffermandosi sui processi che regolano l’assorbimento e l’emissione di energia. Il secondo capitolo invece, tratta il caso particolare delle atmosfere stellari, nel quale si ricava, con una serie di approssimazioni fatte sull’equazione del trasporto radiativo, quale parte osserviamo di una stella e dove si formano le righe spettrali. Successivamente ci si è concentrati sui meccanismi che portano alla formazione delle righe spettrali, analizzando sia le transizioni radiative con i coefficienti di Einstein, sia quelle collisionali, e distinguendo tra transizioni permesse o proibite con le regole di selezione. Infine si sono esaminate le informazioni che si possono ricavare dalle righe spettrali, approfondendo sui fenomeni di shift e modifica di queste, descrivendo più nel dettaglio la riga a 21 cm dell’atomo di idrogeno, fondamentale in astrofisica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi descriviamo due teorie, la MOND e la TeVeS, che si pongono come alternativa all’ipotesi dell’esistenza della materia oscura. Seguendo l’ordine storico degli eventi, nel primo capitolo presentiamo i dati sperimentali e le considerazioni teoriche che hanno convinto gli scienziati del ’900 che la massa osservata nell’Universo sia minore della massa dinamica inferita dalla fisica newtoniana e dalla Relatività Generale. Il primo tentativo di risolvere questo problema è consistito nell’ipotizzare l’esistenza di una materia non ancora osservata, divenuta nota come “materia oscura”. Affrontando le questioni sollevate dalle curve di rotazione delle galassie a spirale, dalla relazione di Tully-Fisher, dalla legge di Freeman e dalle fluttuazioni della radiazione cosmica di fondo, vedremo come questa ipotesi si sia evoluta per tenere conto dei risultati sperimentali, a partire dal modello della sfera isoterma fino al modello ΛCDM, e i problemi che essa non risolve. Nel secondo capitolo descriviamo la MOND, una modifica della dinamica newtoniana nata con l’obiettivo di ridurre la quantità di materia oscura necessaria per descrivere l’Universo. Il problema della massa nascosta può, infatti, essere dovuto a un’incompleta comprensione delle leggi della fisica e, confrontando la MOND con i dati sperimentali presentati nel primo capitolo, vedremo come essa riesca a descrivere la dinamica su scale galattiche ed extragalattiche. Concluderemo il capitolo mostrando una densità di lagrangiana capace di riprodurre la formula fenomenologica della MOND. Per affrontare le questioni cosmologiche è necessario disporre di una teoria relativistica che recuperi la MOND nel limite di campo debole. Nel terzo capitolo trattiamo quindi la TeVeS, riportando le azioni che permettono di derivare le equazioni dei campi di tale teoria. Dopo averne studiato i limiti relativistici e non relativistici, accenneremo a come essa permetta di estendere il paradigma MOND in campo cosmologico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del mio elaborato è stato quello di valutare se il denaro potesse essere un veicolo di trasmissione di microrganismi. Esistono infatti reperti storici che indicano che il denaro veniva visto come probabile portatore di infezioni fatali come la “morte nera”, la peste bubbonica e le pandemie di polmoniti descritte in Europa. Vi sono anche altri studi che hanno indicato come patogeni isolati con maggiore frequenza dalle banconote microrganismi quali enterobatteri e stafilococchi. In questa sperimentazione mi sono occupato del campionamento microbiologico di banconote di vario taglio, raccolte prevalentemente in piccoli esercizi alimentari, sulle quali è stato fatto un tampone al fine di determinare la presenza di: coliformi totali, E. coli, S. aureus, altri stafilococchi, muffe, lieviti, carica batterica totale. Le analisi condotte hanno mostrato che nelle banconote non sono mai stati isolati ceppi di S. aureus, a differenza di quanto riportato nella letteratura. Simili considerazioni si possono fare anche per E. coli. Per quel che riguarda la carica batterica totale, le banconote più contaminate sono risultate essere quelle da 20 euro (valore medio 474 UFC/cm2). I tamponi microbiologici effettuati sui tagli da 50 euro sono stati gli unici ad essere caratterizzati da una elevata presenza di coliformi totali. In conclusione possiamo affermare che le banconote posso effettivamente costituire un importante veicolo di contaminazione microbica, che può poi trasferirsi anche su altri matrici, come prodotti alimentari. Considerando la pressione che viene esercitata dalle Autorità di controllo su tutte le fasi della catena alimentare, dalla produzione alla vendita al dettaglio, la variabile posta dalle possibili contaminazioni attraverso il maneggiamento e la circolazione delle banconote potrebbe quindi costituire un rischio reale, sia pure non ancora quantificato e forse non quantificabile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La percezione coerente del mondo esterno è basata sull'integrazione della grande varietà di input provenienti dalle differenti modalità sensoriali. Il processo di elaborazione delle diverse informazioni recepite, fin dalle prime fasi, è caratterizzato da meccanismi ancora in fase di studio, che, però, possono essere rilevati tramite l’utilizzo di modelli computazionali basati su una rete neurale specifica. In questa Tesi si è preso in considerazione il modello neurale elaborato per simulare gli aspetti spaziali e temporali di illusioni audiovisive, quali l’effetto ventriloquismo e la fission illusion, in modo da poter svolgere un’analisi computazionale del ventriloquismo temporale. Il principale effetto di questo fenomeno consiste nello spostamento dell’istante di occorrenza di uno stimolo visivo verso quello di un segnale acustico presentato in prossimità temporale. Il modello, basato principalmente sul fatto che i neuroni visivi e uditivi comunicano tramite sinapsi eccitatorie e che i campi recettivi spazio-temporali sono differenti per le due modalità sensoriali, è in grado di riprodurre i principali effetti dell’integrazione temporale tra gli stimoli, dando luogo all'effetto illusorio. Si è adattato il modello in modo da rilevare, quantificare e misurare l’estensione del ventriloquismo temporale per diverse disposizioni spaziali e temporali di presentazione degli stimoli. L’analisi è stata ripetuta variando i principali parametri, in modo da rilevare la sensibilità del modello e, quindi, fare valutazioni sui fattori particolarmente influenzanti il fenomeno, confrontando poi i risultati con i dati in letteratura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel corso degli ultimi decenni si è assistito a un aumento di malattie e disturbi che colpiscono il sistema nervoso,specialmente il cervello. Si è dunque resa necessaria la ricerca e l'analisi di tecniche di stimolazione transcranica a fini sperimentali, clinici e di diagnosi. Tra queste spiccano per la loro versatilità la TMS e la tDCS, le quali hanno già trovato e possono ancora trovare la loro applicazione in numerosi ambiti anche molto differenti tra loro, tra cui quello motorio, verbale, della memoria o per disturbi neurodegenerativi. L'analisi approfondita delle loro applicazioni può non solo portare a meglio comprendere i limiti che le due tecniche hanno al giorno d'oggi e quindi portare a un miglioramento delle stesse, ma anche ad una comprensione più accurata del funzionamento del sistema nervoso, tutt'ora ancora alquanto oscuro nella sua complessità. Infine, confrontando le due tecniche si può meglio definire anche quali possano essere gli ambiti in cui l'una e l'altra sono più vantaggiose o possano dare contributi più incisivi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'ambito della Diagnostica per Immagini, l'imaging ibrido sta assumendo un ruolo fondamentale in molte applicazioni cliniche, tra cui oncologia, neurologia e cardiologia. La possibilità di integrare informazioni complementari, funzionali e morfologiche, in un'unica immagine, permette di valutare con estrema accuratezza varie tipologie di malattie, diminuendo i tempi di acquisizione e i disagi per i pazienti. La risonanza magnetica, in sostituzione alla TAC nel sistema integrato PET/TC, introduce notevoli vantaggi quali l'acquisizione simultanea dei dati, l'ottimo contrasto dei tessuti molli, l'assenza di radiazioni ionizzanti e la correzione degli artefatti da movimento; ciò migliora l'accuratezza delle immagini e, di conseguenza, il processo diagnostico. Nonostante sia un interessante strumento di diagnostica e l'apice dello sviluppo tecnologico in imaging nucleare, vi sono alcune problematiche che ne impediscono la diffusa adozione, tra cui le interferenze reciproche tra le due modalità, i costi elevati e ancora una ridotta pubblicazione di articoli al riguardo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggetto della tesi sono i sistemi di ricarica dei veicoli elettrici, in particolare la diffusione in Europa delle stazioni di carica, i metodi di carica le caratteristiche della connessione del veicolo alla stazione, e della stazione alla rete pubblica di distribuzione. La tesi illustra lo stato dell’arte dei sistemi di ricarica, le norme relative, sia tecniche che di legge, l’interfaccia di connessione fra veicolo elettrico e stazione di ricarica, ancora oggetto di discussione e non ancora unificato a livello europeo. La tesi affronta anche i sistemi di protezione previsti dalla norma tecnica per la sicurezza delle persone dai contatti elettrici. La tesi contiene inoltre cenni al sistema di comunicazione tra veicolo e stazione di ricarica, e alla crescente attenzione della ricerca internazionale per le tecniche “vehicle to grid”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il CTBT (Trattato di Bando Complessivo dei Test Nucleari) è un accordo multilaterale tra Stati, stilato nel 1996, che impone il divieto assoluto di effettuare esplosioni di tipo nucleare, sia per scopi civili che per scopi militari, in qualsiasi ambiente. Esso prevede l'istituzione di un sistema di verifica e monitoraggio che si prefigge lo scopo di rilevare tempestivamente se in una qualsiasi parte del mondo sia stato clandestinamente effettuato un test. Tra le varie tecniche utilizzate, la più decisiva per l'identificazione di un'esplosione è data dal monitoraggio di radionuclidi, che permette di fare ipotesi su di un eventuale evento illecito di origine nucleare se in una certa regione si rileva la presenza nell'ambiente di particolari isotopi radioattivi in quantità anomale. Attualmente, il metodo più efficace consiste nell'eventuale identificazione della presenza di quattro radioisotopi di gas nobili, ovvero xeno-131m, xeno-133, xeno-133m e xeno-135. Di recente, però, gli esperti hanno cominciato a valutare l'ipotesi di effettuare misurazioni anche di un altro radioisotopo di gas nobili, ovvero l'argon-37. L'efficacia nell'utilizzo di quest'ultimo è superiore a quella che caratterizza il monitoraggio dello xeno, anche se il motivo per cui il metodo di rilevazione dell'argon non è ancora sfruttato è dato dall'estrema difficoltà che la sua misurazione comporta. Obiettivo di questo lavoro è proprio quello di analizzare le potenzialità dell'utilizzo di tale radioisotopo dell'argon per gli scopi di verifica del CTBT, di descrivere l'attuale stato dell'arte delle tecnologie disponibili per la sua misurazione e di valutare quantitativamente il fondo di argon-37 naturalmente presente, in modo da stabilire i criteri con cui si possa dire se le quantità rilevate siano compatibili con la normale presenza di tale radioisotopo oppure se siano senza dubbio dovute a un'avvenuta esplosione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi si prefigge l’obiettivo di simulare il trasporto di organi destinati a trapianto sul territorio nazionale italiano. Lo scopo della simulazione è mettere in luce le criticità e le eventuali soluzioni alternative in modo da raggiungere un duplice obiettivo: la certezza di portare a compimento il trasporto da un ospedale ad un altro entro i tempi clinici necessari affinché l’organo sia ancora utilizzabile e la riduzione dei costi del trasporto, che negli ultimi anni si sono rivelati elevati a causa del ricorso frequente a voli di Stato. Nella prima parte del lavoro viene delineato il problema e le necessità di ottimizzazione della rete, dopodiché si illustra il modello creato per simulare la situazione di as-is ed infine si espone il modello da utilizzare in futuro, dove si prevedono i tempi futuri di percorrenza. Per la modellazione della situazione attuale sono stati utilizzati due livelli di dettaglio diversi, uno che si basa sulla suddivisione dei trapianti in ingresso e uscita da una regione specifica e uno che approfondisce ulteriormente la rete modellando gli spostamenti di città in città. I modelli predittivi presentati sono due, uno che considera tempi predittivi deterministici e uno che considera tempi stocastici. Dopo ciascuna modellazione vengono esposti i risultati e le statistiche più significative; vengono infine messi in evidenza gli aspetti critici e gli sviluppi futuri della simulazione. Il software scelto per creare e simulare il trasporto degli organi sulla rete è Arena.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilizzo di compositi fibrorinforzati per il rinforzo e l’adeguamento di strutture esistenti in calcestruzzo armato e in muratura ha raggiunto una grande popolarità negli ultimi decenni. Tra i materiali compositi, i fibrorinforzati a matrice cementizia (fiber reinforced cementitious matrix, FRCM) rappresentano una novità nel mondo del rinforzo e la letteratura disponibile a riguardo è ancora molto limitata. Il presente lavoro si inserisce all’interno di un contesto di campagne sperimentali volte ad approfondire la conoscenza su questi materiali. Uno dei problemi di maggiore importanza nell’utilizzo dei compositi FRCM è costituito dalla valutazione della resistenza al distacco (debonding) del composito dal supporto su cui è applicato. Nel caso di strutture in muratura, i cicli di cristallizzazione salina sono una della cause principali di degrado della murature. In questa tesi vengono analizzati gli effetti della cristallizzazione salina sul debonding di compositi FRCM, con fibre di acciaio galvanizzato a matrice a base di calce idraulica, applicati alla muratura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le relazioni tra carsismo e strutture tettoniche sono indubbiamente uno dei campi dell'indagine speleogenetica più interessanti per comprendere le relazioni dei sistemi carsici con la geologia di una determinata area. La struttura di un sistema carsico dipende infatti da molteplici fattori, il cui ruolo può essere sostanzialmente passivo (caratteristiche strutturali) o attivo (condizioni ambientali). Per quanto sia conosciuta l'indubbia relazione di controllo dei fattori passivi sullo sviluppo e l'evoluzione dei sistemi carsici, mancano ancora in letteratura dei testi dettagliati e focalizzati sul controllo che le strutture tettoniche hanno sul carsismo alla macro scala. L'obiettivo di questa tesi è analizzare l'area carsica dei Gessi bolognesi attraverso indagini di rilevamento sia in esterno che in grotta per: a) integrare e migliorare la già esistente cartografia geologica attraverso i dati reperibili direttamente dal sottosuolo; b) delineare dei modelli sui principali meccanismi di controllo strutturale sulla speleogenesi dell'area in esame.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio riguarda l’analisi stratigrafica tridimensionale di un contesto di scavo presso la località Pinarella di Cervia (Ravenna). Il lavoro è consistito nella realizzazione di cinque colonne stratigrafiche e relative osservazioni utili alla correlazione di queste, dalle quali è stato possibile ricostruire l’evoluzione dell’assetto ambientale nell’arco temporale compreso tra l’età romana (20 a.C-20 d.C.) ed il Medioevo. Il contesto stratigrafico rilevato mostra una chiara evidenza trasgressiva da età romana su ambienti continentali preromani. In un ambito areale limitato si sono osservate facies costiere giacenti su depositi fini lagunari e palustri. Il rinvenimento di alcune strutture archeologiche romane, di ancora non certa destinazione funzionale, ha permesso di formulare considerazioni sulla quota del livello del mare in età romana, riconosciuta a 2,60/2,70m al di sotto del livello marino attuale. Si è notato come la regressione forzata caratteristica dell’ambiente padano, in questo ambito sia molto limitata e tarda (successiva al VII sec. d.C) e sia avvenuta ad opera dell’accrezione dell’apparato deltizio del Savio nella sua ala destra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La risalita capillare di umidità nelle murature storiche è la principale responsabile del degrado dei materiali. La metodologia ad oggi più utilizzata in tale campo è quella basata sull’iniezione di prodotti chimici in grado di formare barriere artificiali che blocchino il flusso ascendente dell’acqua, ma è ancora in fase di perfezionamento. Per potere svolgere tale perfezionamento, è utile disporre di una metodologia attendibile per la valutazione dell’esito dei trattamenti, ossia un metodo standardizzato che possa garantire una corretta misurazione del contenuto di umidità nelle murature pre e post iniezioni. Nella presente tesi, che ha lo scopo di valutare l’efficacia di alcuni prodotti per barriere chimiche nelle murature, si è utilizzato un metodo di laboratorio standardizzato proposto dai ricercatori del LASTM (DICAM), che permette di riprodurre in laboratorio il processo di risalita dell’umidità e, allo stesso tempo, permette di potere svolgere le misurazioni del contenuto d’acqua interno ai materiali con il metodo diretto. I trattamenti, svolti in collaborazione con la Azienda inglese “Safeguard”, produttrice di resine impermeabilizzanti, sono stati effettuati su vari modelli, costituiti di laterizi e malta, preventivamente sottoposti a differenti condizioni ambientali. Successivamente si è svolto un monitoraggio periodico per potere determinare sia l’efficacia dell’intervento che l’attendibilità del modello. Dopo avere studiato un sistema di controllo delle condizioni di laboratorio, si è ritenuto opportuno svolgere anche alcune prove di caratterizzazione dei materiali utilizzati nella costruzione dei vari modelli, per conoscerne appieno le caratteristiche e potere valutare con maggiore attendibilità i risultati dei trattamenti. Infine, per approfondire le dinamiche di diffusione dei formulati chimici all’interno dei materiali, si sono svolte prove su travetti di malta.