1000 resultados para equazione di Smolukowski equazioni differenziali morbo di Alzheimer
Resumo:
Argomento del lavoro è stato lo studio di problemi legati alla Flow-Asurance. In particolare, si focalizza su due aspetti: i) una valutazione comparativa delle diverse equazioni di stato implementate nel simulatore multifase OLGA, per valutare quella che porta a risultati più conservativi; ii) l’analisi della formazione di idrati, all’interno di sistemi caratterizzati dalla presenza di gas ed acqua. Il primo argomento di studio nasce dal fatto che per garantire continuità del flusso è necessario conoscere il comportamento volumetrico del fluido all’interno delle pipelines. Per effettuare tali studi, la Flow-Assurance si basa sulle Equazioni di Stato cubiche. In particolare, sono state confrontate: -L’equazione di Soave-Redlich-Kwong; -L’equazione di Peng-Robinson; -L’equazione di Peng-Robinson modificata da Peneloux. Sono stati analizzati 4 fluidi idrocarburici (2 multifase, un olio e un gas) con diverse composizioni e diverse condizioni di fase. Le variabili considerate sono state pressione, temperatura, densità e viscosità; sono state poi valutate le perdite di carico, parametro fondamentale nello studio del trasporto di un fluido, valutando che l'equazione di Peng-Robinson è quella più adatta per caratterizzare termodinamicamente il fluido durante una fase di design, in quanto fornisce l'andamento più conservativo. Dopo aver accertato la presenza di idrati nei fluidi multifase, l’obiettivo del lavoro è stato analizzare come il sistema rispondesse all’aggiunta di inibitori chimici per uscire dalla regione termodinamica di stabilità dell’idrato. Gli inibitori utilizzati sono stati metanolo e mono-etilen-glicole in soluzione acquosa. L’analisi è stata effettuata confrontando due metodi: -Metodo analitico di Hammerschmidt; -Metodo iterativo con PVTSim. I risultati ottenuti hanno dimostrato che entrambi gli inibitori utilizzati risolvono il problema della formazione di idrato spostando la curva di stabilità al di fuori delle pressioni e temperature che si incontrano nella pipeline. Valutando le quantità da iniettare, il metodo di Hammerschmidt risulta quello più conservativo, indicando portate maggiori rispetto al PVTsim, soprattutto aggiungendo metanolo.
Resumo:
In questa tesi viene esposto il modello EU ETS (European Union Emission Trading Scheme) per la riduzione delle emissoni di gas serra, il quale viene formalizzato matematicamente da un sistema di FBSDE (Forward Backward Stochastic Differential Equation). Da questo sistema si ricava un'equazione differenziale non lineare con condizione al tempo finale non continua che viene studiata attraverso la teoria delle soluzioni viscosità. Inoltre il modello viene implementato numericamente per ottenere alcune simulazioni dei processi coinvolti.
Resumo:
In questa tesi si studia l'angiogenesi tumorale, dapprima descrivendo i fenomeni biologici alla base della dinamica cellulare, e successivamente, dopo aver introdotto gli strumenti matematici necessari, sviluppandone un modello seguendo la letteratura esistente basato sulle equazioni differenziali stocastiche e su quelle di Fokker-Planck. Ne vengono infine realizzate simulazioni numeriche.
Resumo:
Questa tesi si focalizza sullo studio dei modelli fisico-matematici attualmente in uso per la simulazione di fluidi al calcolatore con l’obiettivo di fornire nozioni di base e avanzate sull’utilizzo di tali metodi. La trattazione ha lo scopo di facilitare la comprensione dei principi su cui si fonda la simulazione di fluidi e rappresenta una base per la creazione di un proprio simulatore. E’ possibile studiare le caratteristiche di un fluido in movimento mediante due approcci diversi, l’approccio lagrangiano e l’approccio euleriano. Mentre l’approccio lagrangiano ha lo scopo di conoscere il valore, nel tempo, di una qualsiasi proprietà di ciascuna particella che compone il fluido, l’approccio euleriano, fissato uno o più punti del volume di spazio occupato da quest’ultimo, vuole studiare quello che accade, nel tempo, in quei punti. In particolare, questa tesi approfondisce lo studio delle equazioni di Navier-Stokes, approcciandosi al problema in maniera euleriana. La soluzione numerica del sistema di equazioni differenziali alle derivate parziali derivante dalle equazioni sopracitate, approssima la velocità del fluido, a partire dalla quale è possibile risalire a tutte le grandezze che lo caratterizzano. Attenzione viene riservata anche ad un modello facente parte dell’approccio semi-lagrangiano, il Lattice Boltzmann, considerato una via di mezzo tra i metodi puramente euleriani e quelli lagrangiani, che si basa sulla soluzione dell’equazione di Boltzmann mediante modelli di collisione di particelle. Infine, analogamente al metodo di Lattice Boltzmann, viene trattato il metodo Smoothed Particles Hydrodynamics, tipicamente lagrangiano, secondo il quale solo le proprietà delle particelle comprese dentro il raggio di una funzione kernel, centrata nella particella di interesse, influenzano il valore della particella stessa. Un resoconto pratico della teoria trattata viene dato mediante delle simulazioni realizzate tramite il software Blender 2.76b.
Resumo:
In questa tesi si studia l'uso dell'invarianza di gauge e la sua applicazione alla fisica nello studio dell'Elettromagnetismo e della Gravità. In particolare si fa uso dell'invarianza di gauge per studiare le soluzioni in forma di onde piane delle equazioni di Maxwell e dell'equazione di campo di Einstein. Nella presente tesi si mostra dunque come sia possibile applicare uno stesso procedimento matematico a due fenomeni fisici distinti e trarne conclusioni simili.
Resumo:
La progettazione e la modellazione delle geometrie di corpi complessi come le schiere palettate delle turbomacchine, da sempre impegna il tecnico che, dapprima su carta, e successivamente in forma digitale, deve scontrarsi con le difficoltà sia analitiche di risoluzione di sistemi di equazioni differenziali, che geometriche a causa della doppia curvatura dei profili stessi. L’avvento dei calcolatori ha inevitabilmente giocato un ruolo fondamentale nella rapida evoluzione di tecniche di modellazione, calcolo e rappresentazione, per aiutare il progettista a risolvere completamente il problema, o almeno riscontrare risultati approssimativamente corretti, al fine di ridurre i tempi di realizzazione e i costi dell’impresa. Si vuole dunque cercare di descrivere le fasi che la progettazione oggi richiede, sfruttando quello che i software moderni mettono a disposizione, con l’obiettivo di mostrare uno dei molteplici percorsi che il progettista oggi può seguire per riuscire nel suo scopo.
Resumo:
Lo scopo di questa tesi è quello di ottenere una rappresentazione grafica del profilo di velocità di un fluido all’interno di un condotto. In particolare si studieranno le equazioni di bilancio facendo alcune ipotesi semplificative riguardo il moto del fluido. Si considererà un moto laminare in condizione di completo sviluppo dinamico e convezione forzata. Grazie a queste ipotesi si riuscirà ad ottenere un’equazione semplificata di Navier-Stokes, che permetterà di calcolare l’andamento della velocità all’interno di condotti con qualsiasi forma della sezione. In questo caso si confronterà il profilo di velocità di un condotto a sezione circolare con uno a sezione circolare forata come in uno scambiatore di calore a tubi concentrici. Per risolvere l’equazione di Navier-Stokes e stampare l’andamento delle velocità all’interno della sezione del condotto si è utilizzato il software “Mathematica”, che è stato appreso durante l’attività di tirocinio curriculare. Questo software offre un supporto notevole allo studio matematico di qualsiasi problema. Permette inoltre di avere un riscontro grafico dei risultati ottenuti, direttamente nell’interfaccia utilizzata per la stesura del codice. Per rappresentare il profilo di velocità sarà inoltre utilizzato il metodo degli elementi finiti all’interno di Mathematica, che permetterà di ottenere una soluzione più uniforme e vicina alla realtà. Il metodo degli elementi finiti (FEM) permette di semplificare lo studio del moto di un fluido, in quanto ci dà la possibilità di avere un sistema di equazioni algebriche che ne descrivono il moto, invece di equazioni differenziali e le sue relative condizioni al contorno. Sarà quindi brevemente descritto questo metodo che è stato di grande aiuto tramite l’implementazione della “mesh” su Mathematica.
Resumo:
Gli integratori esponenziali costituiscono un'ampia classe di metodi numerici per la risoluzione di equazioni differenziali ordinarie. I primi esempi risalgono a ottanta anni fa e vennero introdotti per la prima volta da Certaine e Pope, ma non hanno avuto un ruolo importante nelle applicazioni per molto tempo, in quanto fanno uso esplicito dell'esponenziale di matrice o di funzioni di matrici di grandi dimensioni. Originariamente, tali metodi vennero sviluppati per problemi stiff e successivamente vennero applicati a equazioni differenziali alle derivate parziali; l'applicazione degli integratori esponenziali a problemi di notevole rilevanza diede inizio a un rigoroso approfondimento teorico e alla costruzione di nuove classi, ad esempio con ordine di convergenza maggiore. I primi modelli di integratori esponenziali sfruttano la linearizzazione del problema e fanno uso della matrice Jacobiana. In generale, tale matrice non ha una struttura particolare e varia continuamente nel tempo, pertanto le tecniche standard per la valutazione dell'esponenziale non sono molto efficienti dal punto di vista computazionale. In questa tesi, studiamo inizialmente l'esponenziale di matrice e il Metodo di Scaling and Squaring per approssimarlo. In seguito, introduciamo alcuni metodi numerici a un passo per la risoluzione di Problemi di Cauchy; infine studiamo il Metodo di Rosenbrock - Eulero che fa uso degli integratori esponenziali per risolvere problemi differenziali con dato iniziale, ne analizziamo convergenza e stabilità e lo applichiamo all'equazione differenziale alle derivate parziali di Allen - Cahn.
Resumo:
Studio della teoria dei processi di semi-Markov nella modellizzazione a tempo discreto. Introduzione delle catene di rinnovo di Markov, del nucleo di semi-Markov e delle catene di semi-Markov, risultati ad essi relativi. Analisi delle equazioni di rinnovo di Markov, caratterizzazione degli stati di una catena di semi-Markov, teorema di esistenza e unicità dell'equazione di rinnovo di Markov. Un esempio concreto.
Resumo:
L'elaborato tratta lo studio dell’evoluzione delle perturbazioni di densità non lineari, confrontando modelli con costante cosmologica (wΛ = −1) e modelli alternativi in cui l’energia oscura sia caratterizzata da un’equazione di stato con w diverso da −1, considerando sia il caso con energia oscura costante, sia quello in cui ha fluttuazioni. La costante cosmologica presenta infatti due problemi teorici attualmente senza soluzione: il problema del suo valore e il problema della coincidenza. Per analizzare l’evoluzione delle perturbazioni di materia ed energia oscura, sia nel caso delle sovradensità che nel caso delle sottodensità primordiali, si implementano numericamente le equazioni differenziali non lineari ricavate a partire dalla teoria del collasso sferico. Per parametrizzare il problema, si fa riferimento ai valori critici del contrasto di densità δc e δv che rappresentano, rispettivamente, la soglia lineare per il collasso gravitazionale e la soglia per l’individuazione di un vuoto cosmico. I valori di δc e δv sono importanti poich´e legati agli osservabili cosmici tramite la funzione di massa e la void size function. Le soglie critiche indicate sono infatticontenute nelle funzioni citate e quindi, cambiando δc e δv al variare del modello cosmologico assunto, è possibile influenzare direttamente il numero e il tipo di oggetti cosmici formati, stimati con la funzione di massa e la void size function. Lo scopo principale è quindi quello di capire quanto l’assunzione di un modello, piuttosto che di un altro, incida sui valori di δc e δv. In questa maniera è quindi possibile stimare, con l’utilizzo della funzione di massa e della void size function, quali sono gli effetti sulla formazione delle strutture cosmiche dovuti alle variazioni delle soglie critiche δc e δv in funzione del modello cosmologico scelto. I risultati sono messi a confronto con il modello cosmologico standard (ΛCDM) per cui si assume Ω0,m = 0.3, Ω0,Λ = 0.7 e wΛ = −1.
Resumo:
La circolazione sanguigna nell’organismo umano sfrutta un meccanismo ad hoc per trasportare gli scarti e tutte le sostanze necessarie al metabolismo cellulare. Il cuore rappresenta la pompa che dà al sangue la spinta per scorrere nei vasi e il ventricolo sinistro è la cavità cardiaca che contribuisce di più allo svolgimento di questo lavoro. Il modello pulsatile utilizzato in questo elaborato per la circolazione sistemica deriva dalla semplificazione di un modello a parametri concentrati precedentemente pubblicato. Nell’analogo elettrico di questo modello sono state incluse la resistenza al ritorno venoso, la resistenza al deflusso aortico e la resistenza arteriolare sistemica. Inoltre, la funzione di pompa del ventricolo è definita dalla complianza ventricolare tempo-variante e dal suo inverso, l’elastanza. Le valvole ventricolari sono simulate da due diodi e le capacità venose e arteriose tengono conto del comportamento elastico dei rispettivi compartimenti. Considerando il lavoro delle valvole, il ciclo cardiaco è stato suddiviso in sette intervalli temporali, per ciascuno dei quali è stato disegnato un analogo elettrico che descrive il comportamento degli elementi circuitali in quello specifico intervallo temporale. Attraverso l’applicazione delle leggi di Kirchoff agli analoghi elettrici sopra citati si scrivono le equazioni differenziali nelle funzioni incognite carica elettrica sulla complianza ventricolare e tensione arteriosa. Per ottenere le espressioni analitiche della soluzione delle equazioni differenziali si approssima l’elastanza con una funzione lineare a tratti e si utilizzano i teoremi per la risoluzione delle equazioni differenziali di ordine uno non omogenee. Le espressioni analitiche vengono implementate su Matlab, che consente di ottenere dei grafici della pressione venosa, arteriosa e ventricolare, dell’elastanza, del volume ventricolare e della portata aortica anche in risposta ad una diminuzione della resistenza arteriolare sistemica.
Resumo:
Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.
Resumo:
In questa tesi consideriamo il problema della percezione di immagini, e in particolare la sensibilità al contrasto del nostro sistema visivo. Viene studiato il modello classico di Retinex, che descrive l'immagine percepita come soluzione di un'equazione di Poisson. Questo modello viene reinterpretato utilizzando strumenti di geometria differenziale e derivate covarianti. La controparte neurofisiologica del modello è la descrizione della funzionalità del LGN, e della connettività che le lega. Questa viene modellata come un nucleo soluzione fondamentale dell'equazione di Laplace, con strumenti di teoria delle distribuzioni. L'attività dello strato di cellule è quindi soluzione dell'equazione di Laplace, ovvero la stessa equazione che descrive il Retinex. Questo prova che le cellule sono responsabili della percezione a meno di illuminazione.
Resumo:
Obiettivi: valutare in pazienti con rene singolo congenito la correlazione tra il filtrato glomerulare misurato con il DTPA (DTPA-VFG) e 1) marker laboratoristici di danno renale (creatinina, cistatinaC, proteinuria) 2) formule per stimare il filtrato glomerulare 3) parametri di valutazione della crescita renale ecografica. Materiali e metodi: Sono stati arruolati 118 pazienti con rene singolo congenito tra 0 e 18 anni. Sono stati valutati a ogni visita altezza, creatinina, cistatinaC, proteinuria e lunghezza ecografica renale. E’ stato calcolato il filtrato stimato con formule basate sulla creatinina (Schwartz), sulla cistatina C (Zappitelli, Filler, Grubb e Bokenkamp) e su entrambe (equazione di Zappitelli). La crescita renale è stata valutata come rapporto lunghezza ecografica/altezza corporea (USL/H), differenza percentuale tra lunghezza renale misurata e attesa per età (delta%) e presenza o meno d’ipertrofia compensatoria. In 74 bambini è stata misurata la DTPA-VFG. Risultati: Il follow-up è di 2.1 ± 0.9 anni. Il 65% sono maschi. Nessun paziente ha sviluppato danno renale cronico. La media del DTPA-VFG era di 135±44ml/min/1.73m², il valore medio della creatinina 0.47±0.17mg/dl e di cistatinaC di 1±0.4mg/L. La lunghezza ecografica renale media era di 100±17 mm, il rapporto USL/H medio di 0.8±0,1 e il delta% di 1,13±11,4, il 66% presentava ipertrofia renale. Le uniche correlazioni significative con DTPA-VFG sono inversa con la creatinina (p=<.001) e lineare con USL/H (p=<.001). Discussione: Lo studio ha mostrato che come per altre nefrouropatie, la creatina e l’ecografia renale siano due strumenti validi per il follow-up dei pazienti con rene singolo congenito. Il limite principale è dovuto al fatto che nessuno dei pazienti ha sviluppato danno renale cronico e pertanto non è stato possibile stabilire dei cutt-off di rischio per parametri quali USL/H.
Resumo:
In questa tesi tratteremo alcune applicazioni della teoria delle distribuzioni, specialmente di quelle temperate. Nei primi capitoli introdurremo i concetti fondamentali di questa teoria e cercheremo di fornire al lettore tutti gli strumenti necessari per affrontare l’argomento principale: la ricerca delle soluzioni fondamentali per un operatore lineare a coefficienti costanti e la risoluzione di problemi differenziali per essi. Infine applicheremo quanto studiato, all’operatore delle onde. Conclude la tesi un’appendice in cui verranno trattate le distribuzioni a simmetria radiale, utili per affrontare il problema di Cauchy per l’equazione delle onde.