1000 resultados para modelli istereticiopensees
Resumo:
The present manuscript focuses on Lattice Gauge Theories based on finite groups. For the purpose of Quantum Simulation, the Hamiltonian approach is considered, while the finite group serves as a discretization scheme for the degrees of freedom of the gauge fields. Several aspects of these models are studied. First, we investigate dualities in Abelian models with a restricted geometry, using a systematic approach. This leads to a rich phase diagram dependent on the super-selection sectors. Second, we construct a family of lattice Hamiltonians for gauge theories with a finite group, either Abelian or non-Abelian. We show that is possible to express the electric term as a natural graph Laplacian, and that the physical Hilbert space can be explicitly built using spin network states. In both cases we perform numerical simulations in order to establish the correctness of the theoretical results and further investigate the models.
Resumo:
Questa tesi mira a presentare una panoramica, anche sperimentale con dati editi ed inediti, della ricostruzione delle life histories umane mediante metodi istologici e biogeochimici applicati allo smalto dentale delle dentizioni decidue. La tesi si concentra sulle metodologie biogeochimiche ad alta risoluzione spaziale che consentono di ottenere livelli temporali di dettaglio senza precedenti (da stagionali fino a sub-settimanali), quando combinate con l'analisi istomorfometrica dei tessuti dentali mineralizzati. La presente ricerca si concentra sulla creazione di modelli consistenti di variazione delle concentrazioni di elementi in traccia (con particolare riferimento a stronzio e bario) lungo la giunzione smalto dentinale, ottenuti tramite LA-ICPMS (Laser Ablation Inductively Coupled Mass Spectrometry), in funzione dei cambiamenti nella dieta (allattamento, svezzamento) nel primo anno di età di individui a storia nutrizionale nota (utilizzando denti decidui naturalmente esfoliati). In una prospettiva bioarcheologica, i risultati delle indagini sulla dieta altamente risolte nel tempo e interpretate con modelli come quelli proposti si correlano direttamente alle life histories individuali e consentono una analisi più sfumata e completa del comportamento umano nel passato, fornendo informazioni essenziali per la comprensione degli adattamenti bioculturali e aprendo finestre conoscitive su aspetti quali il rapporto madre-progenie, la gravidanza, l’allattamento, lo stress infantile, la dieta sia della progenie che della madre, la mobilità ad alta risoluzione e molti altri aspetti della vita delle popolazioni del passato che lo studio del DNA antico e della morfologia scheletrica non possono fornire. Dove il DNA antico tace, lo studio avanzato delle life histories parla.
Resumo:
This PhD thesis focuses on studying the classical scattering of massive/massless particles toward black holes, and investigating double copy relations between classical observables in gauge theories and gravity. This is done in the Post-Minkowskian approximation i.e. a perturbative expansion of observables controlled by the gravitational coupling constant κ = 32πGN, with GN being the Newtonian coupling constant. The investigation is performed by using the Worldline Quantum Field Theory (WQFT), displaying a worldline path integral describing the scattering objects and a QFT path integral in the Born approximation, describing the intermediate bosons exchanged in the scattering event by the massive/massless particles. We introduce the WQFT, by deriving a relation between the Kosower- Maybee-O’Connell (KMOC) limit of amplitudes and worldline path integrals, then, we use that to study the classical Compton amplitude and higher point amplitudes. We also present a nice application of our formulation to the case of Hard Thermal Loops (HTL), by explicitly evaluating hard thermal currents in gauge theory and gravity. Next we move to the investigation of the classical double copy (CDC), which is a powerful tool to generate integrands for classical observables related to the binary inspiralling problem in General Relativity. In order to use a Bern-Carrasco-Johansson (BCJ) like prescription, straight at the classical level, one has to identify a double copy (DC) kernel, encoding the locality structure of the classical amplitude. Such kernel is evaluated by using a theory where scalar particles interacts through bi-adjoint scalars. We show here how to push forward the classical double copy so to account for spinning particles, in the framework of the WQFT. Here the quantization procedure on the worldline allows us to fully reconstruct the quantum theory on the gravitational side. Next we investigate how to describe the scattering of massless particles off black holes in the WQFT.
Resumo:
Anche se l'isteroscopia con la biopsia endometriale è il gold standard nella diagnosi della patologia intracavitaria uterina, l'esperienza dell’isteroscopista è fondamentale per una diagnosi corretta. Il Deep Learning (DL) come metodica di intelligenza artificiale potrebbe essere un aiuto per superare questo limite. Sono disponibili pochi studi con risultati preliminari e mancano ricerche che valutano le prestazioni dei modelli di DL nell'identificazione delle lesioni intrauterine e il possibile aiuto derivato dai fattori clinici. Obiettivo: Sviluppare un modello di DL per identificare e classificare le patologie endocavitarie uterine dalle immagini isteroscopiche. Metodi: È stato eseguito uno studio di coorte retrospettivo osservazionale monocentrico su una serie consecutiva di casi isteroscopici di pazienti con patologia intracavitaria uterina confermata all’esame istologico eseguiti al Policlinico S. Orsola. Le immagini isteroscopiche sono state usate per costruire un modello di DL per la classificazione e l'identificazione delle lesioni intracavitarie con e senza l'aiuto di fattori clinici (età, menopausa, AUB, terapia ormonale e tamoxifene). Come risultati dello studio abbiamo calcolato le metriche diagnostiche del modello di DL nella classificazione e identificazione delle lesioni uterine intracavitarie con e senza l'aiuto dei fattori clinici. Risultati: Abbiamo esaminato 1.500 immagini provenienti da 266 casi: 186 pazienti avevano lesioni focali benigne, 25 lesioni diffuse benigne e 55 lesioni preneoplastiche/neoplastiche. Sia per quanto riguarda la classificazione che l’identificazione, le migliori prestazioni sono state raggiunte con l'aiuto dei fattori clinici, complessivamente con precision dell'80,11%, recall dell'80,11%, specificità del 90,06%, F1 score dell’80,11% e accuratezza dell’86,74% per la classificazione. Per l’identificazione abbiamo ottenuto un rilevamento complessivo dell’85,82%, precision 93,12%, recall del 91,63% ed F1 score del 92,37%. Conclusioni: Il modello DL ha ottenuto una bassa performance nell’identificazione e classificazione delle lesioni intracavitarie uterine dalle immagini isteroscopiche. Anche se la migliore performance diagnostica è stata ottenuta con l’aiuto di fattori clinici specifici, questo miglioramento è stato scarso.
Resumo:
Il quark-gluon plasma (QGP) è uno stato della materia previsto dalla cromodinamica quantistica. L’esperimento ALICE a LHC ha tra i suoi obbiettivi principali lo studio della materia fortemente interagente e le proprietà del QGP attraverso collisioni di ioni pesanti ultra-relativistici. Per un’esaustiva comprensione di tali proprietà, le stesse misure effettuate su sistemi collidenti più piccoli (collisioni protone-protone e protone-ione) sono necessarie come riferimento. Le recenti analisi dei dati raccolti ad ALICE hanno mostrato che la nostra comprensione dei meccanismi di adronizzazione di quark pesanti non è completa, perchè i dati ottenuti in collisioni pp e p-Pb non sono riproducibili utilizzando modelli basati sui risultati ottenuti con collisioni e+e− ed ep. Per questo motivo, nuovi modelli teorici e fenomenologici, in grado di riprodurre le misure sperimentali, sono stati proposti. Gli errori associati a queste nuove misure sperimentali al momento non permettono di verificare in maniera chiara la veridicità dei diversi modelli proposti. Nei prossimi anni sarà quindi fondamentale aumentare la precisione di tali misure sperimentali; d’altra parte, stimare il numero delle diverse specie di particelle prodotte in una collisione può essere estremamente complicato. In questa tesi, il numero di barioni Lc prodotti in un campione di dati è stato ottenuto utilizzando delle tecniche di machine learning, in grado di apprendere pattern e imparare a distinguere candidate di segnale da quelle di fondo. Si sono inoltre confrontate tre diverse implementazioni di un algoritmo di Boosted Decision Trees (BDT) e si è utilizzata quella più performante per ricostruire il barione Lc in collisioni pp raccolte dall’esperimento ALICE.
Resumo:
L’incidenza di patologie cardiovascolari come ipertensione e aterosclerosi è in progressivo aumento nel mondo, sia a causa del maggiore sviluppo di fattori di rischio quali obesità, sedentarietà e diabete, dovuti al tenore di vita che caratterizza la popolazione, specialmente quella risiedente in paesi sviluppati e con un alto tenore di vita, sia a causa dell’aumento dell’aspettativa di vita. Sembra quindi possibile considerare la complianza arteriosa totale e, in particolare, la complianza del primo tratto di aorta come un importante indice per la prevenzione e la valutazione del rischio della patologia arteriosa. La valutazione di questo parametro è però difficile da effettuare in vivo, motivo per cui diversi metodi sono stati sviluppati, alcuni basati sul modello Windkessel a due elementi, modello della circolazione sistemica proposto per la prima volta da Otto Frank nel 1899, altri su quello a tre. I primi risultano più accurati dei secondi. Tra i metodi di stima della complianza arteriosa totale ve ne è uno, il Pulse Pressure Method (PPM), ovvero metodo della pressione differenziale che, introdotto per la prima volta da Stergiopulos nel 1994, si è dimostrato essere tanto semplice quanto accurato. Questo consiste nel trovare il miglior valore di complianza che minimizzi, dopo opportune iterazioni, l’errore tra la pressione differenziale misurata, e quella calcolata in uscita da un modello Windkessel a due elementi. I vantaggi nell’uso di questo metodo non sono pochi: esso infatti non richiede flusso nullo in aorta ed è perciò applicabile in qualsiasi punto dell’albero arterioso, fornisce il valore della complianza alla pressione media Pm e necessita della sola conoscenza della pressione differenziale aortica e del flusso aortico, ottenibili non invasivamente. Studiando i risultati ottenuti, infine, si è visto come l’aorta prossimale, ovvero il tratto di aorta ascendente e l’arco aortico, sia il principale determinante della complianza arteriosa totale.
Resumo:
Il seguente lavoro ha l’obiettivo di mettere in evidenza le varie metodiche che vengono utilizzate per la diagnosi di tutte le malattie che riguardano l’apparato digerente, esaminando le varie tecnologie, la loro manutenzione e il ruolo che l’ingegnere clinico assume in questa tecnologia. In particolare, ho approfondito la video capsula endoscopica, l’ultima tecnologia all’avanguardia verso la quale si stanno concentrando gli studi. La tematica affrontata riguarda la strumentazione utilizzata nell’Endoscopia Digestiva, che utilizza attualmente endoscopi flessibili per visualizzare il sistema digerente. Gli endoscopi fanno parte dell’area diagnostica per bioimmagini, utilizzano quindi apparecchiature biomediche per catturare immagini delle strutture biologiche, potendo così valutare le diverse patologie o le condizioni degli organi stessi. Grazie agli studi e al progredire della scienza, è oggi possibile catturare immagini dinamiche e radiologiche, non più solo statiche e unicamente anatomiche. Alcune di queste tecnologie, così come gli endoscopi e gli ecografi, oltre alla capacità diagnostica, hanno sviluppato la possibilità di intervenire direttamente durante l’esame endoscopico, aiutando la terapia di alcune patologie. Per quanto riguarda la video capsula endoscopica, la possibilità di eseguire biopsie si sta sviluppando, e sono già presenti modelli concreti per il raggiungimento di questo obiettivo. Col passare del tempo si è ridotta notevolmente anche l’invasività dell’esame, che ha portato ad un aumento del numero di prestazioni, dotazione di endoscopi e di tutte le altre attrezzature ad esso associate. Lo sviluppo di queste tecnologie ha portato benefici anche alla qualità della prevenzione e del trattamento di queste patologie. Attualmente queste tecnologie sono indispensabili all’interno di un complesso ospedaliero, ed è per questo che è diventata necessaria anche una loro manutenzione continua, che comporta fattori organizzativi e gestionali.
Resumo:
In questa tesi ricaveremo le equazioni del filtraggio per modelli cinetici e per sistemi gaussiani lineari. Vengono presentati alcuni risultati fondamentali di esistenza ed unicità per le SDE; per poi introdurre l'integrale e la formula backward di Ito. Dopo aver richiamato la definizione di soluzione fondamentale, studieremo appunto il problema del filtraggio per il modello in questione adottando un approccio diretto. Di questi ne tratteremo due: il primo, detto di Krylov e Zatezalo ed il secondo di Veretennikov. Viene poi introdotto il filtro di Kalman-Bucy.
Resumo:
Nonostante lo scetticismo di molti studiosi circa la possibilità di prevedere l'andamento della borsa valori, esistono svariate teorie ipotizzanti la possibilità di utilizzare le informazioni conosciute per predirne i movimenti futuri. L’avvento dell’intelligenza artificiale nella seconda parte dello scorso secolo ha permesso di ottenere risultati rivoluzionari in svariati ambiti, tanto che oggi tale disciplina trova ampio impiego nella nostra vita quotidiana in molteplici forme. In particolare, grazie al machine learning, è stato possibile sviluppare sistemi intelligenti che apprendono grazie ai dati, riuscendo a modellare problemi complessi. Visto il successo di questi sistemi, essi sono stati applicati anche all’arduo compito di predire la borsa valori, dapprima utilizzando i dati storici finanziari della borsa come fonte di conoscenza, e poi, con la messa a punto di tecniche di elaborazione del linguaggio naturale umano (NLP), anche utilizzando dati in linguaggio naturale, come il testo di notizie finanziarie o l’opinione degli investitori. Questo elaborato ha l’obiettivo di fornire una panoramica sull’utilizzo delle tecniche di machine learning nel campo della predizione del mercato azionario, partendo dalle tecniche più elementari per arrivare ai complessi modelli neurali che oggi rappresentano lo stato dell’arte. Vengono inoltre formalizzati il funzionamento e le tecniche che si utilizzano per addestrare e valutare i modelli di machine learning, per poi effettuare un esperimento in cui a partire da dati finanziari e soprattutto testuali si tenterà di predire correttamente la variazione del valore dell’indice di borsa S&P 500 utilizzando un language model basato su una rete neurale.
Resumo:
Le tecniche di fluidodinamica computazionale vengono utilizzate in numerosi settori dell’ingegneria per risolvere in modo efficiente i problemi di flusso e di termodinamica nei fluidi. Uno di questi settori in cui si è diffuso l’utilizzo delle tecniche CFD (Computational Fluid Dynamics) è il settore dell’ingegneria antincendio. Tra i vari software di simulazione presenti, FDS (Fire Dynamics Simulator) è quello più diffuso nella comunità antincendio e utilizzato all’interno della presente analisi. L’elaborato introduce le basi dell’ingegneria antincendio spiegando le varie fasi attraverso il quale passa la metodologia prestazionale, passando poi ad approfondire le dinamiche d’incendio, in particolare nelle gallerie stradali e le tecniche di modellazione termo fluidodinamica degli incendi. L’analisi tratta il confronto tra delle prove d’incendio in scala reale effettuate all’interno di una galleria e le relative simulazioni fluidodinamiche realizzate al fine di verificare la corrispondenza tra la modellazione con software e l’effettiva evoluzione dell’incendio. Nell’analisi verranno confrontati diversi metodi di modellazione, evidenziando i vantaggi e i limiti incontrati nel corso delle simulazioni, confrontandoli al tempo stesso con i risultati ottenuti dai test in scala reale. I modelli ottenuti hanno permesso di estendere le simulazioni a focolari di potenza maggiore al fine di effettuare un’analisi delle prestazioni antincendio della galleria oggetto di studio.
Resumo:
I giacimenti di cinabro (±stibina) del M.te Amiata costituiscono un distretto minerario di importanza mondiale, con una produzione storica totale che supera le 117 kt di Hg, prodotte tra il 1850 e il 1982. Nell’area del distretto minerario si trova l’omonimo sistema geotermico, con 6 impianti per la produzione di energia elettrica che producono 121MW equivalenti di energia. Lo scopo di questa tesi è di individuare e di verificare correlazioni esistenti tra la peculiare distribuzione N-S delle mineralizzazioni a cinabro, le manifestazioni geotermiche e l’assetto strutturale che caratterizza il distretto cinabrifero e il sistema geotermico. Le correlazioni sono state individuate attraverso l’applicazione di algoritmi Machine Learning (ML), utilizzando Scikit-learn, ad un dataset bidimensionale, costruito con applicazioni GIS per contenere tutti i dati geologici-giacimentologici reperiti in letteratura riguardo al distretto amiatino. È stato costruito un modello tridimensionale dell’area di studio basato sulla produzione di quattro solidi che raggruppano le formazioni geologiche presenti nell’area sulla base delle loro caratteristiche geoidrologiche. Sulla base dei risultati ottenuti si può affermare che le tecniche di ML si sono dimostrate utili nell’identificare correlazioni tra i diversi fattori geologico-strutturali che caratterizzano il sistema geotermico del M.te Amiata; la peculiare distribuzione spaziale N-S dei giacimenti del distretto dipende dalla combinazione di un sistema di faglie e di pieghe; i modelli di regressione basati su alberi decisionali (CatBoost e Random Forest) sono complessivamente più performanti e geologicamente significativi. Questo lavoro suggerisce che il ML rappresenta uno strumento in grado di suggerire nuove e poco sperimentate relazioni tra elementi geologici-giacimentologici di un’area complessa come un sistema geotermico ed è in grado di guidare eventuali fasi successive di studi geologici complessi.
Resumo:
la gestione ottimale del rischio alluvionale è un ambito di ricerca di grande rilevanza a livello nazionale e internazionale. Con riferimento alle alluvioni, infatti, sono state proposte in letteratura diverse tecniche innovative per la previsione e la mitigazione del rischio alluvionale. Tra di esse spiccano le tecniche speditive di mappatura della pericolosità idraulica ottenute attraverso l'utilizzo di descrittori geomorfici. Detti approcci derivano descrittori morfologici analizzando modelli digitali delle quote del terreno (DEM) ed in base ad essi forniscono una mappatura di pericolosità idraulica da alluvione. Che gioco svolge la risoluzione del DEM di partenza sull'accuratezza dei prodotti finali? La combinazione di DEM a diversa risoluzione migliora le prestazioni dei singoli dataset? Il lavoro di Tesi analizza l'importanza della risoluzione del DEM di partenza sull'accuratezza delle mappature conseguibili, utilizzando come riferimento l'area del bacino del Samoggia con chiusura a Calcara. I risultati ottenuti mostrano come: (a) le caratteristiche dei descrittori geomorfici considerati sembrano essere influenzate significativamente da quelle del DEM utilizzato come dato in ingresso e (b) DEM ad elevata risoluzione portino ad un aumento nell'accuratezza della mappatura di pericolosità.
Resumo:
La presente tesi si posiziona all’interno di un percorso di ricerca avviato riguardante lo studio delle coperture lignee di vari edifici storici. Gli obiettivi del lavoro consistono nel fornire un quadro generale sullo stato dell’arte della modellazione parametrica per la diagnosi di strutture lignee storiche, completare e approfondire lo studio delle capriate della Cattedrale di S.Pietro a Bologna ed effettuare un confronto sia in termini quantitativi che di velocità esecutiva con metodologia e risultati degli studi precedenti. Il metodo proposto,è stato perfezionato grazie ai feedback ottenuti in corso d’opera a seguito della sua applicazione a nuovi casi studio.L’intento principale è quello di consentire maggior automatizzazione e parametrizzazione del metodo per conferire alle procedure di modellazione un carattere generalizzato e rapidamente replicabile.Sono state ottimizzate le fasi di editing della nuvola di punti e di vettorializzazione delle sezioni degli elementi strutturali.Al fine di approfondire la conoscenza di queste strutture,si è acquisito il rilievo 3D completo del sottotetto dell’edificio con laser scanner.Il primo output consiste quindi in una nuvola di punti dalla quale sono state estrapolate le singole capriate;da queste è possibile estrarre le sezioni delle aste afferenti ai nodi,poi vettorializzate tramite software di modellazione parametrica:sono stati utilizzati algoritmi,programmati e testati nei precedenti studi,che generano 3 modelli per ogni capriata:il modello di rilievo, il modello proiettato e quello “ideale o teorico”.Comparando i modelli e la nuvola di punti di rilievo è possibile analizzare spostamenti e deformazioni delle capriate,ottenere informazioni sul loro comportamento puntale e trarre considerazioni sullo“stato di salute”globale del sottotetto.I dati raccolti permettono di acquisire una maggiore consapevolezza sulle capriate oggetto di indagine e potrebbero essere utilizzati per progettare eventuali interventi di recupero.
Resumo:
Il vantaggio bilingue interessa da decenni la ricerca sociale, psicologica e neurocognitiva. Diversi studi evidenziano una correlazione fra bilinguismo e potenziamento di alcune abilità cognitive quali: risoluzione del conflitto fra input contrastanti, attenzione selettiva, multitasking e le attività del controllo esecutivo. Questo deriverebbe dal fatto che un bilingue si ritrova a gestire le interferenze fra le due lingue di sua competenza. Nello studio si cercheranno di evidenziare alcune implicazioni fra vantaggio bilingue e interpretazione. Nel primo capitolo si spiegherà cos'è l'interpretazione e i suoi principali modelli teorici, oltre a dare una prospettiva sulle aree cerebrali deputate al linguaggio e alla memoria. Nel secondo, si descriverà il bilinguismo e il processo di acquisizione di una lingua oltre ad accennare le basi della teorizzazione del vantaggio bilingue. Nel terzo si descriverà l'evoluzione storica della ricerca di questo ambito e il design degli studi citati. Si cercherà inoltre di stabilire se ci sia una correlazione fra vantaggio bilingue e interpretazione. Nel quarto, si passerà a descrivere dettagliatamente otto esperimenti divisi fra quelli che confermano, quelli che smentiscono e quelli che danno risultati parziali sul vantaggio. Si forniranno inoltre alcune chiavi di lettura sulle metodologie utilizzate.
Resumo:
I contenuti principali trattati in questa tesi sono stati ispirati da due lavori presentati nel corso dello scorso decennio. Il primo lavoro, pubblicato nel 2013 da O. A. Manita e S. V. Shaposhnikov, presenta un nuovo risultato di esistenza di soluzioni, nel senso delle distribuzioni, che siano misure di probabilità per PDE paraboliche non lineari del primo e secondo ordine. Vengono fornite condizioni sufficienti per l’esistenza locale e globale di tale tipo di soluzioni per il problema di Cauchy associato a tali equazioni. Equazioni di tale tipo compaiono in maniera del tutto naturale in diversi ambiti applicativi, fra cui la finanza matematica. Nel lavoro presentato da G. Tataru e T. Fisher per Bloomberg nel 2010, viene proposto un modello stocastico per la modellazione del tasso di cambio di valuta estera al fine di prezzare dei particolari tipi di opzione, le opzioni a barriera, con le quali modelli più classici faticano maggiormente. Nella calibrazione di tale modello, per "fittare" il modello ai prezzi delle opzioni scambiate sul mercato, sorge il problema di risolvere un’equazione alle derivate parziali parabolica non lineare integro-differenziale e che dunque appartiene alla classe di PDE citata precedentemente.