801 resultados para Bioingegneria, Modelli matematici, Volume del liquido interstiziale


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il funzionamento del cervello umano, organo responsabile di ogni nostra azione e pensiero, è sempre stato di grande interesse per la ricerca scientifica. Dopo aver compreso lo sviluppo dei potenziali elettrici da parte di nuclei neuronali in risposta a stimoli, si è riusciti a graficare il loro andamento con l'avvento dell'ElettroEncefaloGrafia (EEG). Tale tecnologia è entrata a far parte degli esami di routine per la ricerca di neuropsicologia e di interesse clinico, poiché permette di diagnosticare e discriminare i vari tipi di epilessia, la presenza di traumi cranici e altre patologie del sistema nervoso centrale. Purtroppo presenta svariati difetti: il segnale è affetto da disturbi e richiede un'adeguata elaborazione tramite filtraggio e amplificazione, rimanendo comunque sensibile a disomogeneità dei tessuti biologici e rendendo difficoltoso il riconoscimento delle sorgenti del segnale che si sono attivate durante l'esame (il cosiddetto problema inverso). Negli ultimi decenni la ricerca ha portato allo sviluppo di nuove tecniche d'indagine, di particolare interesse sono la ElettroEncefaloGrafia ad Alta Risoluzione (HREEG) e la MagnetoEncefaloGrafia (MEG). L'HREEG impiega un maggior numero di elettrodi (fino a 256) e l'appoggio di accurati modelli matematici per approssimare la distribuzione di potenziale elettrico sulla cute del soggetto, garantendo una migliore risoluzione spaziale e maggior sicurezza nel riscontro delle sorgenti neuronali. Il progresso nel campo dei superconduttori ha reso possibile lo sviluppo della MEG, che è in grado di registrare i deboli campi magnetici prodotti dai segnali elettrici corticali, dando informazioni immuni dalle disomogeneità dei tessuti e andando ad affiancare l'EEG nella ricerca scientifica. Queste nuove tecnologie hanno aperto nuovi campi di sviluppo, più importante la possibilità di comandare protesi e dispositivi tramite sforzo mentale (Brain Computer Interface). Il futuro lascia ben sperare per ulteriori innovazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi riguarda l’analisi della vulnerabilità sismica di serbatoi atmosferici in acciaio. I serbatoi sono strutture di varie forme e dimensioni, utilizzate per lo stoccaggio di liquidi come l’acqua, il petrolio e il gas naturale. La loro importanza non deriva solamente dal loro valore economico e da quello della sostanza contenuta, ma anche dalle conseguenze disastrose causate da un loro collasso strutturale. Risulta quindi fondamentale progettare sistemi che siano efficienti ed affidabili, soprattutto nei confronti di azioni sismiche. In questo campo, in particolare negli ultimi decenni, sono state condotte numerose campagne sperimentali, grazie alle quali si è compreso meglio il comportamento dei serbatoi. Le normative, inoltre, hanno introdotto al loro interno indicazioni riguardo all’analisi dinamica, fornendo un valido strumento per i progettisti. In questo lavoro di tesi si è analizzata la vulnerabilità sismica di varie tipologie di serbatoi e si sono confrontati i risultati ottenuti. Sono stati studiati in particolare due modelli: il primo considera il serbatoio come rigido, il secondo, invece, come deformabile. L’analisi è stata automatizzata creando degli script che permettono, variando solamente alcuni parametri (caratteristiche del serbatoio, del liquido contenuto e del terreno presente), di giungere in tempi rapidi ad una soluzione accettabile per verificare le possibili rotture. Per modellare il problema si è scelto di seguire l’approccio fornito dalle raccomandazioni neozelandesi NZSEE, mentre per le verifiche di instabilità sono state prese in considerazione anche le normative europee. L’obiettivo è dunque quello di analizzare, attraverso un modello semplificato ed automatizzato, la vulnerabilità di serbatoi cilindrici in acciaio contenenti liquido sottoposti ad un’azione sismica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le osservazioni e i risultati proposti in questo elaborato si inseriscono all'interno di un progetto più vasto frutto della collaborazione tra SRM e il Dipartimento di Trasporti dell'Università di Bologna. Infatti in occasione del European Cycling Challenge del 2013, SRM ha raccolto per la sola area di Bologna un dataset di 1,050,000 punti GPS registrati da ciclisti volontari durante l'interno mese di Maggio attraverso l'applicazione Endomondo. Ai ciclisti che partecipavano volontariamente all’iniziativa è stato chiesto di registrare i proprio viaggi nella città di Bologna effettuati con la bici, attraverso l’ applicazione, gratuitamente scaricabile sul proprio smartphone: all’inizio di ciascun viaggio, i partecipanti dovevano attivare l’applicazione, e quindi il sistema GPS del loro smartphone, e registrare lo spostamento. Questo campione è stato dunque utilizzato come punto di partenza per questo progetto che rappresenta il primo caso studio italiano in cui i modelli di scelta del percorso ciclabile si sono basati su un ampio campione di dati GPS raccolti mediante sondaggio RP. In questo elaborato quindi si è analizzato il campione dei percorsi in termini di singoli spostamenti, del confronto con il percorso di minor lunghezza e all'interno di un set di alternative compiute. Infine si sono indagati due parametri che hanno influenzato la scelta del percorso ciclabile da parte degli utenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Una parte importante della ricerca in Intelligenza Artificiale e guidata dal confronto tra una macchina ed un essere umano nello svolgere un determinato compito. In questa Tesi viene considerata la sfida della risoluzione automatica di giochi matematici. Dopo un'introduzione sulle principali caratteristiche del problema, verranno esaminati i lavori correlati esistenti e i componenti utilizzabili al fine di proporre uno strumento che, a partire da un testo in lingua Italiana, ricavi il modello del quesito in esso descritto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo del presente lavoro è illustrare le tecniche di modellazione di sistemi termici. In particolare, si vedrà come ricavare modelli matematici di sistemi di interesse industriale, come i forni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente elaborato si è affrontato il tema dell’utilizzo di biogas per la produzione di energia elettrica e termica; in primo luogo è stata fatta una panoramica sulla diffusione degli impianti di digestione anaerobica in Europa e in Italia, con particolare attenzione alla logica degli incentivi volti alla promozione delle fonti rinnovabili. Il biogas presenta infatti il duplice vantaggio di inserirsi sia nell’ottica del “Pacchetto Clima-Energia” volto alla riduzione di consumi energetici da fonti fossili, sia nella migliore gestione dei rifiuti organici volta alla riduzione del conferimento in discarica. L’allineamento degli incentivi italiani con quelli europei, prevista dal Decreto Ministeriale 6 luglio 2012, presuppone un’espansione del settore biogas più oculata e meno speculativa di quella degli ultimi anni: inoltre la maggiore incentivazione all’utilizzo di rifiuti come materia prima per la produzione di biogas, comporta l’ulteriore vantaggio di utilizzare, per la produzione di energia e compost di qualità, materia organica che nel peggiore dei casi sarebbe inviata in discarica. Il progetto oggetto di studio nasce dalla necessità di trattare una quantità superiore di Frazione Organica di Rifiuti Solidi Urbani da R.D, a fronte di una riduzione drastica delle quantità di rifiuti indifferenziati conferiti ai siti integrati di trattamento di rifiuti non pericolosi. La modifica nella gestione integrata dei rifiuti prevista dal progetto comporta un aumento di efficienza del sito, con una drastica riduzione dei sovvalli conferiti a discariche terze, inoltre si ha una produzione di energia elettrica e termica annua in grado di soddisfare gli autoconsumi del sito e di generare un surplus di elettricità da cedere in rete. Nel contesto attuale è perciò conveniente predisporre nei siti integrati impianti per il trattamento della FORSU utilizzando le Migliori Tecniche Disponibili proposte dalle Linee Guida Italiane ed Europee, in modo tale da ottimizzare gli aspetti ambientali ed economici dell’impianto. Nell’elaborato sono stati affrontati poi gli iter autorizzativi necessari per le autorizzazioni all’esercizio ed alla costruzione degli impianti biogas: a seguito di una dettagliata disamina delle procedure necessarie, si è approfondito il tema del procedimento di Valutazione di Impatto Ambientale, con particolare attenzione alla fase di Studio di Impatto Ambientale. Inserendosi il digestore in progetto in un sito già esistente, era necessario che il volume del reattore fosse compatibile con l’area disponibile nel sito stesso; il dimensionamento di larga massima, che è stato svolto nel Quadro Progettuale, è stato necessario anche per confrontare le tipologie di digestori dry e wet. A parità di rifiuto trattato il processo wet richiede una maggiore quantità di fluidi di diluizione, che dovranno essere in seguito trattati, e di un volume del digestore superiore, che comporterà un maggiore dispendio energetico per il riscaldamento della biomassa all’interno. È risultata perciò motivata la scelta del digestore dry sia grazie al minore spazio occupato dal reattore, sia dal minor consumo energetico e minor volume di reflui da trattare. Nella parte finale dell’elaborato sono stati affrontati i temi ambientali,confrontando la configurazione del sito ante operam e post operam. È evidente che la netta riduzione di frazione indifferenziata di rifiuti, non totalmente bilanciata dall’aumento di FORSU, ha consentito una riduzione di traffico veicolare indotto molto elevato, dell’ordine di circa 15 mezzi pesanti al giorno, ciò ha comportato una riduzione di inquinanti emessi sul percorso più rilevante per l’anidride carbonica che per gli altri inquinanti. Successivamente è stata valutata, in modo molto conservativo, l’entità delle emissioni ai camini dell’impianto di cogenerazione. Essendo queste l’unico fattore di pressione sull’ambiente circostante, è stato valutato tramite un modello semplificato di dispersione gaussiana, che il loro contributo alla qualità dell’aria è generalmente una frazione modesta del valore degli SQA. Per gli ossidi di azoto è necessario un livello di attenzione superiore rispetto ad altri inquinanti, come il monossido di carbonio e le polveri sottili, in quanto i picchi di concentrazione sottovento possono raggiungere frazioni elevate (fino al 60%) del valore limite orario della qualità dell’aria, fissato dal D.Lgs 155/2010. Infine, con riferimento all’ energia elettrica producibile sono state valutate le emissioni che sarebbero generate sulla base delle prestazioni del parco elettrico nazionale: tali emissioni sono da considerare evitate in quanto l’energia prodotta nel sito in esame deriva da fonti rinnovabili e non da fonti convenzionali. In conclusione, completando il quadro di emissioni evitate e indotte dalla modifica dell’impianto, si deduce che l’impatto sull’ambiente non modificherà in maniera significativa le condizioni dell’aria nella zona, determinando una variazione percentuale rispetto agli inquinanti emessi a livello regionale inferiore all’1% per tutti gli inquinanti considerati (CO, PM10, NOX, NMCOV). Il vantaggio più significativo riguarda una riduzione di emissioni di CO2 dell’ordine delle migliaia di tonnellate all’anno; questo risultato è importante per la riduzione di emissione dei gas serra in atmosfera e risulta in accordo con la logica dell’utilizzo di biomasse per la produzione di energia. Dal presente elaborato si evince infine come l’utilizzo del biogas prodotto dalla digestione anaerobica della Frazione Organica dei Rifiuti Solidi Urbani non comporti solo un vantaggio dal punto di vista economico, grazie alla presenza degli incentivi nazionali, ma soprattutto dal punto di vista ambientale, grazie alla riduzione notevole dei gas serra in atmosfera, in accordo con gli obiettivi europei e mondiali, e grazie al recupero di rifiuti organici per la produzione di energia e compost di qualità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In una situazione caratterizzata dalla scarsità delle risorse finanziare a disposizione degli enti locali, che rende necessario il contributo dei privati alla realizzazione delle opere pubbliche, e dalla scarsità delle risorse ambientali, che impone di perseguire la sostenibilità degli interventi, la tesi si pone l’obiettivo di rendere le realizzazioni di nuove infrastrutture viarie “attive” rispetto al contesto in cui si collocano, garantendo l’impegno di tutte parti coinvolte. Si tratta di ottenere il contributo dei privati oltre che per le opere di urbanizzazione primaria, funzionali all’insediamento stesso, anche per la realizzazione di infrastrutture viarie non esclusivamente dedicate a questo, ma che sono necessarie per garantirne la sostenibilità. Tale principio, che viene anche denominato “contributo di sostenibilità”, comincia oggi a trovare un’applicazione nelle pratiche urbanistiche, sconta ancora alcune criticità, in quanto i casi sviluppati si basano spesso su considerazioni che si prestano a contenziosi tra operatori privati e pubblica amministrazione. Ponendosi come obiettivo la definizione di una metodologia di supporto alla negoziazione per la determinazione univoca e oggettiva del contributo da chiedere agli attuatori delle trasformazioni per la realizzazione di nuove infrastrutture viarie, ci si è concentrati sullo sviluppo di un metodo operativo basato sull’adozione dei modelli di simulazione del traffico a 4 stadi. La metodologia proposta è stata verificata attraverso l’applicazione ad un caso di studio, che riguarda la realizzazione di un nuovo asse viario al confine tra i comuni di Castel Maggiore ed Argelato. L’asse, indispensabile per garantire l’accessibilità alle nuove aree di trasformazione che interessano quel quadrante, permette anche di risolvere alcune criticità viabilistiche attualmente presenti. Il tema affrontato quindi è quello della determinazione del contributo che ciascuno degli utilizzatori del nuovo asse dovrà versare al fine di consentirne la realizzazione. In conclusione, si formulano alcune considerazioni sull’utilità della metodologia proposta e sulla sua applicabilità a casi analoghi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il tumore al seno è il più comune tra le donne nel mondo. La radioterapia è comunemente usata dopo la chirurgia per distruggere eventuali cellule maligne rimaste nel volume del seno. Nei trattamenti di radioterapia bisogna cercare di irradiare il volume da curare limitando contemporaneamente la tossicità nei tessuti sani. In clinica i parametri che definiscono il piano di trattamento radioterapeutico sono selezionati manualmente utilizzando un software di simulazione per trattamenti. Questo processo, detto di trial and error, in cui i differenti parametri vengono modificati e il trattamento viene simulato nuovamente e valutato, può richiedere molte iterazioni rendendolo dispendioso in termini di tempo. Lo studio presentato in questa tesi si concentra sulla generazione automatica di piani di trattamento per irradiare l'intero volume del seno utilizzando due fasci approssimativamente opposti e tangenti al paziente. In particolare ci siamo concentrati sulla selezione delle direzioni dei fasci e la posizione dell'isocentro. A questo scopo, è stato investigata l'efficacia di un approccio combinatorio, nel quale sono stati generati un elevato numero di possibili piani di trattamento utilizzando differenti combinazioni delle direzioni dei due fasci. L'intensità del profilo dei fasci viene ottimizzata automaticamente da un algoritmo, chiamato iCycle, sviluppato nel ospedale Erasmus MC di Rotterdam. Inizialmente tra tutti i possibili piani di trattamento generati solo un sottogruppo viene selezionato, avente buone caratteristiche per quel che riguarda l'irraggiamento del volume del seno malato. Dopo di che i piani che mostrano caratteristiche ottimali per la salvaguardia degli organi a rischio (cuore, polmoni e seno controlaterale) vengono considerati. Questi piani di trattamento sono matematicamente equivalenti quindi per selezionare tra questi il piano migliore è stata utilizzata una somma pesata dove i pesi sono stati regolati per ottenere in media piani che abbiano caratteristiche simili ai piani di trattamento approvati in clinica. Questo metodo in confronto al processo manuale oltre a ridurre considerevol-mente il tempo di generazione di un piano di trattamento garantisce anche i piani selezionati abbiano caratteristiche ottimali nel preservare gli organi a rischio. Inizialmente è stato utilizzato l'isocentro scelto in clinica dal tecnico. Nella parte finale dello studio l'importanza dell'isocentro è stata valutata; ne è risultato che almeno per un sottogruppo di pazienti la posizione dell'isocentro può dare un importante contributo alla qualità del piano di trattamento e quindi potrebbe essere un ulteriore parametro da ottimizzare. 

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi presenta una serie di risultati dell'analisi quantitativa sulla linguistica. Inizialmente sono studiate due fra le leggi empiriche più famose di questo campo, le leggi di Zipf e Heaps, e vengono esposti vari modelli sullo sviluppo del linguaggio. Nella seconda parte si giunge alla discussione di risultati più specifici sulla presenza di fenomeni di burstiness e di correlazioni a lungo raggio nei testi. Tutti questi studi teorici sono affiancati da analisi sperimentali, svolte utilizzando varie traduzioni del libro "Guerra e pace" di Leo Tolstoj e concentrate principalmente sulle eventuali differenze riscontrabili tra le diverse lingue.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Sindrome da Asfissia Perinatale (PAS) è una delle più comuni patologie che colpiscono il puledro neonato nelle prime 72 h di vita. È una patologia difficile da diagnosticare in quanto non esistono parametri o segni clinici specifici, la sintomatologia è molto variabile in base alla durata e all’intensità dell’insulto ipossico ischemico e al tipo di organo maggiormente colpito. Lo scopo di questo studio è la ricerca e la valutazione di alcuni parametri biochimico-clinici e di alcuni biomarkers per la diagnosi precoce e il corretto trattamento dei puledri affetti da PAS. Nei puledri neonati che presentano questa patologia è stata riscontrata un’ipermagnesiemia al momento del ricovero associata a prognosi infausta, probabilmente causata da un grave danno cellulare con rilascio in circolo del magnesio intracellulare. La PAS potrebbe essere un’ulteriore causa di Euthyroid Sick Syndrome, in quanto abbiamo riscontrato una diminuzione delle concentrazioni di T3 e T4 nei puledri malati rispetto ai sani della stessa età, come avviene in altre malattie sistemiche. Lo studio del profilo proteomico ha permesso di separare le più importanti frazioni proteiche del liquido amniotico di cavalla, mettendo in evidenza similitudini e differenze qualitative e quantitative nei ferogrammi dei puledri sani e di quelli affetti da PAS ed una maggiore variabilità è stata riscontrata nei profili dei liquidi amniotici dei puledri malati. Il glutatione è risultato poco espresso nel puledro neonato, i puledri sani presentano concentrazioni più basse sia rispetto ai malati della stessa età sia agli adulti ma con una tendenza all’aumento nelle prime 24 ore di vita per i sani ed un calo nei malati. La somministrazione della terapia antiradicalica non influisce sulle concentrazioni di glutatione totale ed i puledri deceduti presentano concentrazioni più alte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il trattamento dell’osteoartrosi (OA) del cane è una sfida nella pratica clinica veterinaria. Molti trattamenti sono stati proposti, tuttavia la risposta clinica agli stessi non è sempre soddisfacente. Molti farmaci sono utilizzati per il trattamento dell’OA, tra cui farmaci anti-infiammatori non steroidei, corticosteroidi, ed inibitori della produzione dell’ossido nitrico. Lo stanozololo è un derivato sintetico del testosterone; oltre alle sue proprietà anaboliche/androgeniche , a basse dosi lo stanozololo ha un affinità per i recettori glucocorticoidi. Per questa attività antinfiammatoria e rigenerativa sui tessuti articolari danneggiati viene utilizzato nella degenerative joint desease del cavallo. Lo scopo di questo studio è stato di valutare l’efficacia clinica dello stanozololo intra-articolare a 15, 30, 45 e 60 giorni dal trattamento di gomiti con OA di cane. E’ stato eseguito uno studio cieco, multicentrico e randomizzato. Previo consenso informato, sono stati arruolati 48 cani, suddivisi in 3 gruppi e trattati con stanozololo, mavacoxib e con entrambi i farmaci. Sono state valutate zoppia, tollerabilità del trattamento, range of motion, e punteggio radiografico. Inoltre sono state stabilite e annoverate quantità e qualità del liquido sinoviale. Ai dati ottenuti sono stati applicati i test di Kruskal-Wallis, Chi-quadro e Fischer, i quali hanno dimostrato l’efficacia della terapia nei singoli gruppi e tra i diversi gruppi di studio. I risultati ottenuti hanno mostrato la riduzione di almeno un grado di zoppia e la riduzione della progressione dell’OA nei casi trattati con stanozololo. Si può quindi affermare che tale molecola per via intra-articolare può essere una valida alternativa per il trattamento dell’OA di gomito nel cane.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’accoppiamento articolare in ceramica è sempre più utilizzato in chirurgia protesica dell’anca per le sue eccellenti proprietà tribologiche. Tuttavia la fragilità della ceramica è causa di fallimenti meccanici. Abbiamo quindi condotto una serie di studi al fine di individuare un metodo efficace di diagnosi precoce del fallimento della ceramica. Abbiamo analizzato delle componenti ceramiche espiantate e abbiamo trovato un pattern di usura pre-frattura che faceva supporre una dispersione di particelle di ceramica nello spazio articolare. Per la diagnosi precoce abbiamo validato una metodica basata sulla microanalisi del liquido sinoviale. Per validare la metodica abbiamo eseguito un agoaspirato in 12 protesi ben funzionanti (bianchi) e confrontato i risultati di 39 protesi con segni di rottura con quelli di 7 senza segni di rottura. Per individuare i pazienti a rischio rottura i dati demografici di 26 pazienti con ceramica rotta sono stati confrontati con 49 controlli comparabili in termini demografici, tipo di ceramica e tipo di protesi. Infine è stata condotta una revisione sistematica della letteratura sulla diagnosi della rottura della ceramica. Nell’aspirato la presenza di almeno 11 particelle ceramiche di dimensioni inferiori a 3 micron o di una maggiore di 3 micron per ogni campo di osservazione sono segno di rottura della ceramica. La metodica con agoaspirato ha 100% di sensibilità e 88 % di specificità nel predire rotture della ceramica. Nel gruppo delle ceramiche rotte è stato trovato un maggior numero di malposizionamenti della protesi rispetto ai controlli (p=0,001). Il rumore in protesi con ceramica dovrebbe sollevare il sospetto di fallimento ed indurre ad eseguire una TC e un agoaspirato. Dal confronto con la letteratura la nostra metodica risulta essere la più efficace.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si occupa di mostrare il progetto messo in atto in una classe dell’ultimo anno di liceo scientifico. Tratta un possibile approccio all’introduzione delle equazioni differenziali mediante la modellizzazione matematica. Si vuole mostrare come lo studio di problemi di diversa natura porti alla costruzione e all’utilizzo di modelli matematici, quali le equazioni differenziali. Con questo intervento didattico si propone un percorso che guida gli studenti nel processo della modellizzazione matematica, analizzandone le criticità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’accoppiamento di diverse operazioni unitarie può in certi casi portare ad una cosiddetta “intensificazione di processo”, cioè ad un aumento sostanziale delle rese, dell’efficienza e della sostenibilità. Nel presente lavoro sono state pertanto analizzate le potenzialità di accoppiamento della fotocatalisi, il più studiato tra i “processi di ossidazione avanzata”, sia con alcuni processi a membrana per la sintesi verde di aromi sia con l’ozonizzazione per la depurazione di acque. È stato dimostrato che in entrambi i casi l’ottenimento di una significativa intensificazione di processo dipende in gran parte dai parametri operativi, in particolare dal rapporto, delta, tra la velocità caratteristica di fotocatalisi e quella del processo accoppiato. Nel caso della sintesi di aromi, in cui la fotocatalisi viene accoppiata con la pervaporazione o con la dialisi ricircolando al reattore il retentato dalla cella con la membrana. Il parametro delta dipende dalla velocità di reazione, dalle proprietà di trasporto delle membrane e naturalmente dal volume del rettore e dall’area della membrana. La reazione fotocatalitica produce l’aroma, ad esempio vanillina da acido ferulico, per ossidazione parziale e grazie al recupero del prodotto se ne evita l’ulteriore ossidazione aumentandone pertanto la resa. L’operare in apparati separati offre diversi vantaggi come la possibilità di variare senza vincoli il rapporto tra area della membrana e volume del reattore, ma impone di considerare anche il grado effettivo di accoppiamento dei processi. In questo caso, come evidenziato dal modello matematico, un sufficientemente elevato rapporto di ricircolo consente comunque di integrare efficacemente i processi. Nell’ozonizzazione fotocatalitica si hanno due importanti vantaggi: l’aumento della velocità di degradazione grazie alla sinergia tra i processi e la capacità di controllare la formazione di prodotti pericolosi. La sinergia viene massimizzata ad un valore ottimale di delta, mentre la formazione dei prodotti indesiderati viene controllata operando secondo le procedure che sono state individuate.