962 resultados para cinetica, sodio, modelli matematici, emodialisi


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le SNe Ia vengono utilizzate in cosmologia come indicatori di distanza. Nel 1998 due team di ricerca, il Supernova Cosmology Project e l'High-z Supernova Search Team compirono degli studi su un campione di SNe in galassie lontane a z=0.2-0.9. Da questi lavori emerse che le luminosità apparenti erano tipicamente inferiori del 25% rispetto ai valori attesi. Questo indica che tali oggetti si trovano ad una distanza di luminosità superiore a quella prevista da modelli d'Universo dominati da materia. Venne quindi determinata per la prima volta l'evidenza di un Universo in condizione di espansione accelerata. Lo scopo del presente lavoro di tesi è quello di analizzare i vincoli cosmologici imposti da SNe Ia ad alto redshift. È stato compiuto uno studio sui moduli di distanza osservativi di un campione di 580 SNe Ia al fine di trovare i parametri cosmologici che meglio descrivono il loro andamento in funzione del redshift nell'ambito dei modelli cosmologici standard con costante cosmologica positiva. Nella prima parte si illustreranno i modelli d’Universo di Friedmann, introducendo i concetti di redshift, di fattore di scala e i vari tipi di distanza. Nella seconda parte si descriverà cosa sono le Supernovae, e in particolare, le SNe di tipo Ia, le proprietà che le rendono candele standard e l'importanza che hanno assunto in cosmologia. Nella terza parte verranno presentanti i risultati prodotti per i due modelli studiati, verrà inoltre discussa la compatibilità con i parametri prodotti nei lavori compiuti dai due team di ricerca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi consiste nello studio delle proprietà generali di sistemi compatti statici e a simmetria sferica nell'ambito dei modelli che prevedono l'esistenza di dimensioni spaziali aggiuntive e che sono comunemente dette del mondo-brana. Si comincerà con una breve descrizione di teorie gravitazionali a più dimensioni, in particolare si parte dalla teoria di Kaluza-Klein, per arrivare ai modelli ADD(Arkani-Hamed, Dimopoulos, Dvali) e infine a quelli RS(Rundall, Sundrum)che interessano direttamente questo studio. Per questi modelli, vengono quindi ricavate le equazioni di campo multidimensionali dall'azione di Einstein-Hilbert e successivamente le si proietta, facendo uso delle equazioni di Gauss e Codazzi, su una brana massiva immersa in un “bulk” cinquedimensionale. Infine si studiano le equazioni di campo di Einstein quadridimensionali per una generica metrica che può servire a descrive stelle statiche, a simmetria sferica e costituite da un fluido perfetto isotropo. Successivamente si ripete la stessa analisi partendo dall'equazione di campo sulla brana e si confrontano i risultati nei due diversi contesti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca biomedica è arrivata attualmente a un bivio che vede contrapposte sperimentazione in vitro e in vivo. Per ovviare a questo problema è nata la sperimentazione su biochip che, attraverso l'impiego di apparecchiature dedicate, permette di ottenere misure su campioni che ripropongano le condizioni fisiologiche dei tessuti umani in vivo superando il problema della sperimentazione animale e quello delle misure in vitro, che non rispecchiano le condizioni reali delle cellule in esame. Il perfezionamento dell'apparecchio in questione richiede la comparazione delle condizioni create nel biochip con quelle riscontrate nei tessuti cellulari di pazienti umani. Il fine della comparazione è quello di riuscire ad eguagliare i due sistemi per poter sfruttare il dispositivo come un fantoccio su cui verificare gli effetti di farmaci in fase sperimentale e misurare grandezze con un grado di precisione molto più alto rispetto ai metodi messi in opera fino a ora. Questo lavoro di tesi propone uno studio preliminare sulla fattibilità di misure di concentrazioni di ossigeno e glucosio attraverso i radiofarmaci 64Cu-ATSM e 18F-FDG impiegati su pazienti sottoposti a PET-CT. Nello specifico, dopo aver illustrato i processi cellulari che coinvolgono il glucosio e l'ossigeno all'interno dei tessuti umani, si passa a descrivere le metodologie di misura impiegate, nell'ambito dell'imaging diagnostico, e le caratteristiche che motivano la scelta dei radiofarmaci utilizzati come mezzo di contrasto. Successivamente viene considerato un modello compartimentale a due tessuti per descrivere la cinetica dei radiofarmaci e per ottenere una stima delle concentrazioni da rapportare alle grandezze rilevate con la PET. Infine sono tracciati dei profili sulle slice dei volumi PET elaborati che diano dei valori di concentrazione delle molecole studiate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si inserisce nell’ambito di studio dei modelli stocastici applicati alle sequenze di DNA. I random walk e le catene di Markov sono tra i processi aleatori che hanno trovato maggiore diffusione in ambito applicativo grazie alla loro capacità di cogliere le caratteristiche salienti di molti sistemi complessi, pur mantenendo semplice la descrizione di questi. Nello specifico, la trattazione si concentra sull’applicazione di questi nel contesto dell’analisi statistica delle sequenze genomiche. Il DNA può essere rappresentato in prima approssimazione da una sequenza di nucleotidi che risulta ben riprodotta dal modello a catena di Markov; ciò rappresenta il punto di partenza per andare a studiare le proprietà statistiche delle catene di DNA. Si approfondisce questo discorso andando ad analizzare uno studio che si ripropone di caratterizzare le sequenze di DNA tramite le distribuzioni delle distanze inter-dinucleotidiche. Se ne commentano i risultati, al fine di mostrare le potenzialità di questi modelli nel fare emergere caratteristiche rilevanti in altri ambiti, in questo caso quello biologico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi è presentata la misura con il rivelatore ALICE del flusso triangolare, v3, di pioni, kaoni e protoni prodotti in collisioni PbPb a LHC. Il confronto di v3 con le previsioni di modelli idrodinamici permette di vincolare maggiormente le assunzioni sulle condizioni iniziali del sistema presenti nei diversi modelli ed estrarre una stima maggiormente precisa delle proprietà del mezzo come la viscosità. La misura è effettuata nella regione di pseudorapidità centrale sui dati raccolti da ALICE nel 2010 e 2011 e utilizza una tecnica di identificazione basata sia sulla misura della perdita di energia specifica, con la camera a proiezione temporale (TPC), sia la misura della velocità con il sistema a tempo di volo (TOF). La combinazione di entrambe le tecniche permette di separare le diverse specie in un intervallo esteso di impulsi con elevata efficienza e purezza. Per la misura del piano di reazione è stato utilizzato il rivelatore VZERO che misura la molteplicità delle particelle cariche in una regione di pseudorapidità disgiunta da quella in cui è misurato v3. La misura ottenuta è confrontata con le previsioni di modelli idrodinamici attualmente più utilizzati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si cerca un flusso diffuso di neutrini nel piano Galattico. ANTARES, un telescopio di neutrini che si trova nel Mar Mediterraneo, ha un’area di visibilit`a tale da poter osservare questa parte di cielo, quindi isolare l’emissione di neutrini per trovarne le sorgenti. Sono confrontate diverse regioni del cielo, selezionate in modo tale che abbiano le stesse dimensioni. In particolare si comparano la regione corrispondente al Centro Galattico, detta on-zone, e altre regioni, dove secondo i modelli analizzati ci si aspetta un minor segnale, dette off-zone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, parallelamente allo sviluppo di calcolatori elettronici sempre più performanti, la fluidodinamica computazionale è diventata uno strumento di notevole utilità nell’analisi dei flussi e nello sviluppo di dispositivi medici. Quando impiegate nello studio di flussi di fluidi fisiologici, come il sangue, il vantaggio principale delle analisi CFD è che permettono di caratterizzare il comportamento fluidodinamico senza dover eseguire test in-vivo/in-vitro, consentendo quindi notevoli vantaggi in termini di tempo, denaro e rischio derivante da applicazioni mediche. Inoltre, simulazioni CFD offrono una precisa e dettagliata descrizione di ogni parametro di interesse permettendo, già in fase di progettazione, di prevedere quali modifiche al layout garantiranno maggiori vantaggi in termini di funzionalità. Il presente lavoro di tesi si è posto l’obiettivo di valutare, tramite simulazioni CFD, le performances fluidodinamiche del comparto sangue “camera venosa” di un dispositivo medico monouso Bellco impiegato nella realizzazione di trattamenti di emodialisi. Dopo una panoramica del contesto, è presentata una breve descrizione della disfunzione renale e dei trattamenti sostitutivi. Notevole impegno è stato in seguito rivolto allo studio della letteratura scientifica in modo da definire un modello reologico per il fluido non-Newtoniano preso in considerazione e determinarne i parametri caratteristici. Il terzo capitolo presenta lo stato dell’arte delle apparecchiature Bellco, rivolgendosi con particolare attenzione al componente “cassette” del dispositivo monouso. L’analisi fluidodinamica del compartimento “camera venosa” della cassette, che sarà presa in considerazione nei capitoli quinto e sesto, si inserisce nell’ambito della riprogettazione del dispositivo attualmente in commercio: il quarto capitolo si incentra sul suo nuovo design, ponendo specifico interesse sul layout della camera venosa di nuova generazione. Per lo studio dei flussi che si sviluppano internamente ad essa ci si è avvalsi del modulo CFD del software COMSOL multiphysics® (versione 5.0); la definizione del modello implementato e della tipologia di studio effettuato sono presi in considerazione nel quinto capitolo. Le problematiche di maggior impatto nella realizzazione di un trattamento di emodialisi sono l’emolisi e la coagulazione del sangue. Nell'evenienza che si verifichino massivamente occorre infatti interrompere il trattamento con notevoli disagi per il paziente, per questo devono essere evitate. Nel sesto capitolo i risultati ottenuti sono stati esaminati rivolgendo particolare attenzione alla verifica dell’assenza di fenomeni che possano portare alle problematiche suddette.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi si studia un processo sperimentale necessario alla realizza- zione di un esperimento di Fisica Atomica. L’attivit`a svolta consiste nell’ottimizzazione dei paramentri di un algoritmo di con- trollo PI (proporzionale-integrale) atto a stabilizzare la temperatura di un Diodo Laser entro 1mK. Nella branca dell’Ottica Non Lineare (dove la polarizzazione del mezzo ha una rispo- sta non lineare al campo elettrico) si possono presentare casi in cui la birifrangenza del mezzo ha una forte dipendenza dalla temperatura. Questa pu o ` essere control- lata per il raggiungimento delle condizioni di phase matching. Le fluttuazioni di temperatura possono minare tramite la dilatazione termica la precisione di una ca- vit`a Fabry-Perot, utilizzata per controllare e misurare la lunghezza d’onda della luce, dato che nominalmente ∆ν/ν = − ∆L/L. Negli esperimenti di Laser Cooling infi- ne si lavora spesso con transizioni la cui larghezza naturale Γ ∼ 1MHz , mentre la frequenza di un laser pu o ́ dipendere dalla temperatura con coefficienti tipicamente dell’ordine del GHz/K. Questa stabilizzazione risulta dunque fondamentale per una vasta classe di esperi- menti nei quali le derive termiche possono influenzare drammaticamente il processo di misura. La tesi, in particolare, si apre con un capitolo nel quale si tratta brevemente il con- testo matematico di riferimento per i sistemi di controllo a retroazione. Tra questi e ` di particolare interesse la regolazione proporzionale-integrale. Il secondo capitolo si concentra sulla caratterizzazione del sistema in oggetto al fine di trovare la sua funzione di trasferimento ad anello aperto. Nel terzo capitolo infine, si utilizzano gli strumenti matematici descritti precedente- mente per ottimizzare i parametri del regolatore e si discutono i risultati ottenuti e le misure finali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi introduce le basi della teoria della computazione quantistica, partendo da un approccio teorico-matematico al concetto di qubit per arrivare alla schematizzazione di alcuni circuiti per algoritmi quantistici, analizzando la differenza tra le porte logiche classiche e la loro versione quantistica. Segue poi una lista descrittiva di possibili applicazioni dei computer quantistici, divise per categorie, e i loro vantaggi rispetto ai computer classici. Tra le applicazioni rientrano la crittografia quantistica, gli algoritmi di fattorizzazione e del logaritmo discreto di Shor, il teletrasporto di informazione quantistica e molte altre. La parte più corposa della tesi riguarda le possibili implementazioni, ovvero come realizzare praticamente un computer quantistico rendendo entità fisiche i qubit. Di queste implementazioni vengono analizzati i vari aspetti necessari alla computazione quantistica, ovvero la creazione di stati iniziali, la misura di stati finali e le trasformazioni unitarie che rappresentano le porte logiche quantistiche. Infine vengono elencate le varie problematiche del modello preso in considerazione. Infine vengono citati alcuni esperimenti e modelli recenti che potrebbero vedere una realizzazione su scala industriale nei prossimi anni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

viene stimata la fattibilità di sistemi di energy harvesting dedicati alle linee elettriche con particolare riferimento a modelli capacitivi e vengono analizzati energeticamente due soluzioni circuitali per alimentare un carico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La portata media cardiaca, (cardiac output “CO”) è un parametro essenziale per una buona gestione dei pazienti o per il monitoraggio degli stessi durante la loro permanenza nell’unità di terapia intensiva. La stesura di questo elaborato prende spunto sull’articolo di Theodore G. Papaioannou, Orestis Vardoulis, and Nikos Stergiopulos dal titolo “ The “systolic volume balance” method for the non invasive estimation of cardiac output based on pressure wave analysis” pubblicato sulla rivista American Journal of Physiology-Heart and Circulatory Physiology nel Marzo 2012. Nel sopracitato articolo si propone un metodo per il monitoraggio potenzialmente non invasivo della portata media cardiaca, basato su principi fisici ed emodinamici, che usa l’analisi della forma d’onda di pressione e un metodo non invasivo di calibrazione e trova la sua espressione ultima nell’equazione Qsvb=(C*PPao)/(T-(Psm,aorta*ts)/Pm). Questa formula è stata validata dagli autori, con buoni risultati, solo su un modello distribuito della circolazione sistemica e non è ancora stato validato in vivo. Questo elaborato si pone come obiettivo quello di un’analisi critica di questa formula per la stima della portata media cardiaca Qsvb. La formula proposta nell'articolo verrà verificata nel caso in cui la circolazione sistemica sia approssimata con modelli di tipo windkessel. Dallo studio svolto emerge il fatto che la formula porta risultati con errori trascurabili solo se si approssima la circolazione sistemica con il modello windkessel classico a due elementi (WK2) e la portata aortica con un’onda rettangolare. Approssimando la circolazione sistemica con il modello windkessel a tre elementi (WK3), o descrivendo la portata aortica con un’onda triangolare si ottengono risultati con errori non più trascurabili che variano dal 7%-9% nel caso del WK2 con portata aortica approssimata con onda triangolare ad errori più ampi del 20% nei i casi del WK3 per entrambe le approssimazioni della portata aortica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli ammassi globulari rappresentano i laboratori ideali nei quali studiare la dinamica di sistemi ad N-corpi ed i suoi effetti sull’evoluzione stellare. Infatti, gli ammassi globulari sono gli unici sistemi astrofisici che, entro il tempo scala dell’età dell’Universo, sperimentano quasi tutti i processi di dinamica stellare noti. Questo lavoro di tesi si inserisce in un progetto a lungo termine volto a fornire una dettagliata caratterizzazione delle proprietà dinamiche degli ammassi globulari galattici. In questa ricerca, strumenti di fondamentale importanza sono il profilo di dispersione di velocità del sistema e la sua curva di rotazione. Per determinare le componenti radiali di questi profili cinematici in ammassi globulari galattici è necessario misurare la velocità lungo la linea di vista di un ampio campione di stelle membre, a differenti distanze dal centro. Seguendo un approccio multi-strumentale, è possibile campionare l’intera estensione radiale dell’ammasso utilizzando spettrografi multi-oggetto ad alta risoluzione spettrale nelle regioni intermedie/esterne, e spettrografi IFU con ottiche adattive per le regioni centrali (pochi secondi d’arco dal centro). Questo lavoro di tesi è volto a determinare il profilo di dispersione di velocità dell’ammasso globulare 47 Tucanae, campionando un’estensione radiale compresa tra circa 20'' e 13' dal centro. Per questo scopo sono state misurate le velocità radiali di circa un migliaio di stelle nella direzione di 47 Tucanae, utilizzando spettri ad alta risoluzione ottenuti con lo spettrografo multi-oggetto FLAMES montato al Very Large Telescope dell’ESO. Le velocità radiali sono state misurate utilizzando la tecnica di cross-correlazione tra gli spettri osservati e appropriati spettri teorici, e sono state ottenute accuratezze inferiori a 0.5km/s. Il campione così ottenuto (complementare a quello raccolto con strumenti IFU nelle regioni centrali) è fondamentale per costruire il profilo di dispersione di velocità dell’ammasso e la sua eventuale curva di rotazione. Questi dati, combinati col profilo di densità dell’ammasso precedentemente determinato, permetteranno di vincolare opportunamente modelli teorici come quelli di King (1966) o di Wilson (1975), e di arrivare così alla prima solida determinazione dei parametri strutturali e dinamici (raggi di core e di metà massa, tempo di rilassamento, parametro collisionale, etc.) e della massa totale e distribuzione di massa del sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il problema dell'acidificazione degli oceani, conseguente ai cambiamenti climatici, è un processo ancora poco conosciuto. Per comprendere questo fenomeno, possono essere utilizzati degli ambienti naturalmente acidificati, considerati laboratori a cielo aperto. Lo scopo di questo lavoro di tesi è stato quello di utilizzare le fumarole presenti nell'isola di Ischia, per approfondire le dinamiche dei processi di acidificazione e per analizzare l'eventuale interazione tra pH e condizioni meteorologiche. I dati utilizzati, forniti dalla Stazione Zoologica “Anton Dohrn” di Napoli, erano serie di pH e di vento rilevate in continuo, in due aree, nord e sud rispetto all'isolotto del Castello Aragonese, e in tre stazioni lungo un gradiente di acidificazione. Tutto il lavoro è stato svolto a step, dove il risultato di un'analisi suggeriva il tipo e il metodo analitico da utilizzare nelle analisi successive. Inizialmente i dati delle due serie sono stati analizzati singolarmente per ottenere i parametri più salienti delle due serie. In seguito i dati sono stati correlati fra loro per stimare l'influenza del vento sul pH. Globalmente è stato possibile evidenziare come il fenomeno dell'acidificazione sia correlato con il vento, ma la risposta sembra essere sito-specifica, essendo risultato dipendente da altri fattori interagenti a scala locale, come la geomorfologia del territorio, le correnti marine e la batimetria del fondale. È però emersa anche la difficoltà nel trovare chiare correlazioni fra le due serie indagate, perché molto complesse, a causa sia della numerosa quantità di zeri nella serie del vento, sia da una forte variabilità naturale del pH, nelle varie stazioni esaminate. In generale, con questo lavoro si è dimostrato come utilizzare tecniche di analisi delle serie storiche, e come poter utilizzare metodi di regressione, autocorrelazione, cross-correlation e smoothing che possono integrare i modelli che prendono in considerazione variabili esogene rispetto alla variabile di interesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato vuole illustrare alcuni risultati matematici di teoria della misura grazie ai quali si sono sviluppate interessanti conseguenze nel campo della statistica inferenziale relativamente al concetto di statistica sufficiente. Il primo capitolo riprende alcune nozioni preliminari e si espone il teorema di Radon-Nikodym, sulle misure assolutamente continue, con conseguente dimostrazione. Il secondo capitolo dal titolo ‘Applicazioni alla statistica sufficiente’ si apre con le definizioni degli oggetti di studio e con la presentazione di alcune loro proprietà matematiche. Nel secondo paragrafo si espongono i concetti di attesa condizionata e probabilità condizionata in relazione agli elementi definiti nel paragrafo iniziale. Si entra nel corpo di questo capitolo con il terzo paragrafo nel quale definiamo gli insiemi di misura, gli insiemi di misura dominati e il concetto di statistica sufficiente. Viene qua presentato un importante teorema di caratterizzazione delle statistiche sufficienti per insiemi dominati e un suo corollario che descrive la relativa proprietà di fattorizzazione. Definiamo poi gli insiemi omogenei ed esponiamo un secondo corollario al teorema, relativo a tali insiemi. Si considera poi l’esempio del controllo di qualità per meglio illustrare la nozione di statistica sufficiente osservando una situazione più concreta. Successivamente viene introdotta la nozione di statistica sufficiente a coppie e viene enunciato un secondo teorema di caratterizzazione in termini di rapporto di verosimiglianza. Si procede quindi ad un confronto tra questi due tipi di sufficienza. Tale confronto viene operato in due situazioni differenti e porta a risultati diversi per ogni caso. Si conclude dunque l’elaborato marcando ancora l’effettiva bontà di una statistica sufficiente in termini di informazioni contenute al suo interno.