29 resultados para Ottimizzazione

em AMS Tesi di Dottorato - Alm@DL - Università di Bologna


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Water distribution networks optimization is a challenging problem due to the dimension and the complexity of these systems. Since the last half of the twentieth century this field has been investigated by many authors. Recently, to overcome discrete nature of variables and non linearity of equations, the research has been focused on the development of heuristic algorithms. This algorithms do not require continuity and linearity of the problem functions because they are linked to an external hydraulic simulator that solve equations of mass continuity and of energy conservation of the network. In this work, a NSGA-II (Non-dominating Sorting Genetic Algorithm) has been used. This is a heuristic multi-objective genetic algorithm based on the analogy of evolution in nature. Starting from an initial random set of solutions, called population, it evolves them towards a front of solutions that minimize, separately and contemporaneously, all the objectives. This can be very useful in practical problems where multiple and discordant goals are common. Usually, one of the main drawback of these algorithms is related to time consuming: being a stochastic research, a lot of solutions must be analized before good ones are found. Results of this thesis about the classical optimal design problem shows that is possible to improve results modifying the mathematical definition of objective functions and the survival criterion, inserting good solutions created by a Cellular Automata and using rules created by classifier algorithm (C4.5). This part has been tested using the version of NSGA-II supplied by Centre for Water Systems (University of Exeter, UK) in MATLAB® environment. Even if orientating the research can constrain the algorithm with the risk of not finding the optimal set of solutions, it can greatly improve the results. Subsequently, thanks to CINECA help, a version of NSGA-II has been implemented in C language and parallelized: results about the global parallelization show the speed up, while results about the island parallelization show that communication among islands can improve the optimization. Finally, some tests about the optimization of pump scheduling have been carried out. In this case, good results are found for a small network, while the solutions of a big problem are affected by the lack of constraints on the number of pump switches. Possible future research is about the insertion of further constraints and the evolution guide. In the end, the optimization of water distribution systems is still far from a definitive solution, but the improvement in this field can be very useful in reducing the solutions cost of practical problems, where the high number of variables makes their management very difficult from human point of view.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’attuale condizione che caratterizza il settore energetico richiede un necessario processo di riconversione che, oltre a favorire il risparmio energetico, riduca la dipendenza dai combustibili fossili ed accresca l’impiego di fonti energetiche rinnovabili, dando un contributo fondamentale alla riduzione delle emissioni di gas serra come diversi accordi internazionali richiedono. Si rende pertanto necessario accelerare i processi che da alcuni anni stanno favorendo l’utilizzo di energia da fonti rinnovabili. Tra queste, le fonti legate ai processi di trattamento biologico dei reflui stanno avendo un interessante sviluppo. Esistono numerosi processi biologici che consentono la produzione di energia in maniera indiretta, quali ad esempio i processi di digestione anaerobica finalizzati alla produzione di biogas e/o produzione biologica di idrogeno. In tale contesto si inserisce la tecnologia delle Microbial Fuel Cell, che consente la produzione diretta di energia elettrica, finalizzata al recupero energetico inteso al miglioramento dell’efficienza energetica e alla riduzione dei costi d’esercizio di impianti di trattamento biologico dei reflui. Il presente lavoro di Tesi di Dottorato sperimentale, svoltosi in collaborazione al laboratorio PROT.-IDR. della sede ENEA di Bologna, riporta i risultati dell’attività di ricerca condotta su una MFC (Microbial Fuel Cell) a doppio stadio biologico per il trattamento di reflui ad elevato carico organico e produzione continua di energia elettrica. E’ stata provata l’applicabilità della MFC con entrambi i comparti biotici utilizzando elettrodi di grafite non trattata ottenendo, con un carico organico in ingresso di circa 9 gd-1, valori di potenza massima prodotta che si attestano su 74 mWm-2, corrente elettrica massima generata di 175 mAm-2 ad una tensione di 421 mV, ed una conversione di COD in elettricità pari a 1,2 gCODm-2d-1. I risultati sono stati molto positivi per quanto riguarda le prestazioni depurative ottenute dalla MFC. L’efficienza di depurazione misurata ha raggiunto un valore massimo del 98% di rimozione del COD in ingresso, mentre e la concentrazione di azoto ammoniacale nell’effluente raccolto all’uscita del sedimentatore è sempre stata inferiore a 1 mgN-NH4+l-1. Tra gli obiettivi posti all’inizio della sperimentazione si è rivelata di notevole interesse la valutazione del possibile utilizzo della MFC come sistema per il monitoraggio on-line del COD e degli acidi grassi volatili (VFA) prodotti all’interno di un digestore anaerobico, attraverso la definizione di una correlazione tra i dati elettrici registrati in continuo e le concentrazioni di CODanaer e VFA misurate in diversi periodi della sperimentazione. L’analisi DGGE della biomassa catodica ha fornito uno strumento analitico utile allo studio della diversità della comunità microbica sospesa ed adesa al catodo e ha confermato la forte similarità delle specie batteriche riconosciute nei campioni analizzati. In particolare, le bande di sequenziamento ottenute sono affiliate ai gruppi batterici Firmicutes, -Proteobacteria,  -Proteobacteria, -Proteobacteria e Bacteroidetes. Da quanto emerso dalla sperimentazione condotta si può pertanto concludere che ad oggi le MFC sono in fase di evoluzione rispetto ai primi prototipi utilizzati per lo studio delle comunità microbiali e per la comprensione dei meccanismi di trasferimento elettronico. Sfruttarne la potenza prodotta in maniera commerciale diviene una grande sfida per il futuro, ed è opinione comune che le prime applicazioni pratiche delle MFC saranno come fonte di recupero energetico per i dispositivi utilizzati per il monitoraggio dell’ambiente e per il trattamento delle acque reflue.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The aim of this Doctoral Thesis is to develop a genetic algorithm based optimization methods to find the best conceptual design architecture of an aero-piston-engine, for given design specifications. Nowadays, the conceptual design of turbine airplanes starts with the aircraft specifications, then the most suited turbofan or turbo propeller for the specific application is chosen. In the aeronautical piston engines field, which has been dormant for several decades, as interest shifted towards turboaircraft, new materials with increased performance and properties have opened new possibilities for development. Moreover, the engine’s modularity given by the cylinder unit, makes it possible to design a specific engine for a given application. In many real engineering problems the amount of design variables may be very high, characterized by several non-linearities needed to describe the behaviour of the phenomena. In this case the objective function has many local extremes, but the designer is usually interested in the global one. The stochastic and the evolutionary optimization techniques, such as the genetic algorithms method, may offer reliable solutions to the design problems, within acceptable computational time. The optimization algorithm developed here can be employed in the first phase of the preliminary project of an aeronautical piston engine design. It’s a mono-objective genetic algorithm, which, starting from the given design specifications, finds the engine propulsive system configuration which possesses minimum mass while satisfying the geometrical, structural and performance constraints. The algorithm reads the project specifications as input data, namely the maximum values of crankshaft and propeller shaft speed and the maximal pressure value in the combustion chamber. The design variables bounds, that describe the solution domain from the geometrical point of view, are introduced too. In the Matlab® Optimization environment the objective function to be minimized is defined as the sum of the masses of the engine propulsive components. Each individual that is generated by the genetic algorithm is the assembly of the flywheel, the vibration damper and so many pistons, connecting rods, cranks, as the number of the cylinders. The fitness is evaluated for each individual of the population, then the rules of the genetic operators are applied, such as reproduction, mutation, selection, crossover. In the reproduction step the elitist method is applied, in order to save the fittest individuals from a contingent mutation and recombination disruption, making it undamaged survive until the next generation. Finally, as the best individual is found, the optimal dimensions values of the components are saved to an Excel® file, in order to build a CAD-automatic-3D-model for each component of the propulsive system, having a direct pre-visualization of the final product, still in the engine’s preliminary project design phase. With the purpose of showing the performance of the algorithm and validating this optimization method, an actual engine is taken, as a case study: it’s the 1900 JTD Fiat Avio, 4 cylinders, 4T, Diesel. Many verifications are made on the mechanical components of the engine, in order to test their feasibility and to decide their survival through generations. A system of inequalities is used to describe the non-linear relations between the design variables, and is used for components checking for static and dynamic loads configurations. The design variables geometrical boundaries are taken from actual engines data and similar design cases. Among the many simulations run for algorithm testing, twelve of them have been chosen as representative of the distribution of the individuals. Then, as an example, for each simulation, the corresponding 3D models of the crankshaft and the connecting rod, have been automatically built. In spite of morphological differences among the component the mass is almost the same. The results show a significant mass reduction (almost 20% for the crankshaft) in comparison to the original configuration, and an acceptable robustness of the method have been shown. The algorithm here developed is shown to be a valid method for an aeronautical-piston-engine preliminary project design optimization. In particular the procedure is able to analyze quite a wide range of design solutions, rejecting the ones that cannot fulfill the feasibility design specifications. This optimization algorithm could increase the aeronautical-piston-engine development, speeding up the production rate and joining modern computation performances and technological awareness to the long lasting traditional design experiences.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’anticoagulazione regionale con citrato (RCA) è una valida opzione in pazienti ad alto rischio emorragico. Lo scopo del nostro studio è stato di valutare, in pazienti critici sottoposti a CRRT per insufficienza renale acuta post-cardiochirurgica, efficacia e sicurezza di un protocollo di RCA in CVVH con l’impiego di una soluzione di citrato a bassa concentrazione (12mmol/L). Metodi: L’RCA-CVVH è stata adottata come alternativa all’eparina o alla CRRT senza anticoagulante (no-AC). Criteri per lo switch verso l’RCA: coagulazione dei circuiti entro 24h o complicanze legate all’eparina. Per facilitare l’impostazione dei parametri CVVH, abbiamo sviluppato un modello matematico per stimare il carico metabolico di citrato e la perdita di calcio. Risultati: In 36 mesi, sono stati sottoposti a RCA-CVVH 30 pazienti. La durata dei circuiti con RCA (50.5 ± 35.8 h, mediana 41, 146 circuiti) è risultata significativamente maggiore (p<0.0001) rispetto all’eparina (29.2±22.7 h, mediana 22, 69 circuiti) o alla no-AC CRRT (24.7±20.6 h, mediana 20, 74 circuiti). Il numero di circuiti funzionanti a 24, 48, 72 h è risultato maggiore durante RCA (p<0.0001). I target di Ca++ sistemico e del circuito sono stati facilmente mantenuti (1.18±0.13 e 0.37±0.09 mmol/L). Durante l’RCA-CVVH nessun paziente ha avuto complicanze emorragiche e il fabbisogno trasfusionale si è ridotto rispetto alle altre modalità (0.29 vs 0.69 unità/die, p<0.05). Le piastrine (p=0.012) e l’AT-III (p=0.004) sono aumentate durante RCA riducendo la necessità di supplementazione. L’RCA è stata interrotta per accumulo di citrato in un solo paziente (calcemia totale/s-Ca++ >2.5). Conclusioni: L’RCA ha consentito di prolungare la durata dei circuiti riducendo il fabbisogno trasfusionale e la necessità di supplementazione di AT-III e piastrine. L’utilizzo di un modello matematico ha facilitato l’impostazione dei parametri CVVH. L’RCA appare meritevole di maggiore considerazione come metodica di anticoagulazione di prima scelta in pazienti ad alto rischio emorragico sottoposti a CRRT.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro ha avuto lo scopo di identificare le caratteristiche di filtrabilità della birra attraverso lo svolgimento di prove tecnologiche di filtrazione in scala di laboratorio e su scala pilota, utilizzando diverse tipologie di sistemi filtranti e sperimentando diversi materiali di membrana. La fase preliminare della caratterizzazione della filtrabilità della birra è stata condotta presso i laboratori del Campden-BRI – The Brewing Research International, Inghilterra, mentre le prove tecnologiche su scala pilota si sono svolte presso il CERB – Centro di Eccellenza per la Ricerca sulla Birra. Le prove di filtrazione e le analisi sui campioni hanno permesso di verificare le performance delle diverse membrane utilizzate in risposta alla variazione dei principali parametri del processo di filtrazione tangenziale. Sono stati analizzati diversi parametri di qualità della birra filtrata attraverso il monitoraggio del processo e lo svolgimento di prove analitiche sul prodotto volte ad evidenziare gli effetti delle differenti tecnologie adottate. Per quanto riguarda le prove di laboratorio per la caratterizzazione della filtrabilità della birra, l’analisi della PCS (Photon Correlation Spectroscopy) è stata utilizzata per verificare l’influenza di diversi trattamenti enzimatici sulla efficienza del processo di filtrazione e la loro influenza sulla stabilità colloidale della birra filtrata. Dai risultati ottenuti è emerso che il PCS è un valido strumento per determinare la distribuzione in classi di diametro e il diametro medio effettivo delle particelle solide in sospensione nella birra e può essere utilizzato sia per predire la stabilità della birra filtrata, sia per monitorare il processo di filtrazione in tempo reale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durante l'attività di ricerca sono stati sviluppati tre progetti legati allo sviluppo e ottimizzazione di materiali compositi. In particolare, il primo anno, siamo andati a produrre materiali ceramici ultrarefrattari tenacizzati con fibre di carburo di silicio, riuscendo a migliorare il ciclo produttivo e ottenendo un materiale ottimizzato. Durante il secondo anno di attività ci siamo concentrati nello sviluppo di resine epossidiche rinforzate con particelle di elastomeri florurati che rappresentano un nuovo materiale non presente nel mercato utile per applicazioni meccaniche e navali. L'ultimo anno di ricerca è stato svolto presso il laboratorio materiali di Ansaldo Energia dove è stato studiato il comportamenteo di materiali per turbine a gas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduzione L’efficacia dei chemio/radioterapici ha aumentato notevolmente l’aspettativa di vita delle pazienti oncologiche, tuttavia, questi trattamenti possono compromettere la funzionalità ovarica. La crioconservazione di tessuto ovarico, con il successivo reimpianto, ha lo scopo di preservare la fertilità delle pazienti a rischio di fallimento ovarico precoce. Scopo dello studio Definire la migliore procedura di crioconservazione e reimpianto in grado di ottenere la neovascolarizzazione del tessuto reimpiantato nel minor tempo possibile al fine di diminuire la perdita follicolare causata dall’ischemia durante la procedura. Materiali e metodi Per ciascuna paziente (3) le biopsie ovariche, sono state prelevate laparoscopicamente e crioconservate secondo il protocollo di congelamento lento/scongelamento rapido. Campioni di corticale ovarica sono stati processati per l’analisi istologica, ultrastrutturale, immuistochimica e confocale per valutare la preservazione morfologiaca del tessuto. Le fettine di corticale ovarica sono state scongelate e reimpiantate ortotopicamente (2), nelle ovaia e in due tasche peritoneali, o eterotopicamente (1), in due tasche create nel sottocute sovrapubico. Risultati Le analisi di microscopia hanno mostrato il mantenimento di una discreta morfologia dello stroma, e dei vasi criopreservati e un lieve ma non significativo danneggiamento dei follicoli scongelati. Tutte le pazienti hanno mostrato la ripresa della funzionalità endocrina rispettivamente dopo 2/4 mesi dal reimpianto. Il color-doppler, inoltre ha rivelato un significativo aumento della vascolarizzazione ovarica rispetto alla quasi totale assenza di vascolarizzazione prima del reimpianto, quando le pazienti mostravano una conclamata menopausa. Conclusioni Lo studio ha confermato la ripresa della vascolarizzazione dell’ovaio in seguito a reimpianto avascolare di fettine di corticale, senza l’impiego di fattori esogeni o meccanici aggiuntivi, in tempi concordanti con i dati della letteratura. I risultati sono incoraggianti e l’avanzare degli studi e della ricerca potranno contribuire allo sviluppo di nuove metodologie di reimpianto che possano avere un successo clinico ed una sicurezza superiori a quelle finora ottenute.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo studio, che è stato realizzato in collaborazione con Hera, è un'analisi della gestione dei rifiuti a Bologna. La ricerca è stata effettuata su diversi livelli: un livello strategico il cui scopo è quello di identificare nuovi metodi per la raccolta dei rifiuti in funzione delle caratteristiche del territorio della città, un livello analitico che riguarda il miglioramento delle applicazioni informatiche di supporto, e livello ambientale che riguarda il calcolo delle emissioni in atmosfera di veicoli adibiti alla raccolta e al trasporto dei rifiuti. innanzitutto è stato necessario studiare Bologna e lo stato attuale dei servizi di raccolta dei rifiuti. È incrociando questi componenti che in questi ultimi tre anni sono state effettuate modifiche nel settore della gestione dei rifiuti. I capitoli seguenti sono inerenti le applicazioni informatiche a sostegno di tali attività: Siget e Optit. Siget è il programma di gestione del servizio, che attualmente viene utilizzato per tutte le attività connesse alla raccolta di rifiuti. È un programma costituito da moduli diversi, ma di sola la gestione dati. la sperimentazione con Optit ha aggiunto alla gestione dei dati la possibilità di avere tali dati in cartografia e di associare un algoritmo di routing. I dati archiviati in Siget hanno rappresentato il punto di partenza, l'input, e il raggiungimento di tutti punti raccolta l'obiettivo finale. L'ultimo capitolo è relativo allo studio dell'impatto ambientale di questi percorsi di raccolta dei rifiuti. Tale analisi, basata sulla valutazione empirica e sull'implementazione in Excel delle formule del Corinair mostra la fotografia del servizio nel 2010. Su questo aspetto Optit ha fornito il suo valore aggiunto, implementando nell'algoritmo anche le formule per il calcolo delle emissioni.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il primo studio ha verificato l'affidabilità del software Polimedicus e gli effetti indotti d'allenamento arobico all’intensità del FatMax. 16 soggetti sovrappeso, di circa 40-55anni, sono stati arruolati e sottoposti a un test incrementale fino a raggiungere un RER di 0,95, e da quel momento il carico è stato aumentato di 1 km/ h ogni minuto fino a esaurimento. Successivamente, è stato verificato se i valori estrapolati dal programma erano quelli che si possono verificare durante a un test a carico costante di 1ora. I soggetti dopo 8 settimane di allenamento hanno fatto un altro test incrementale. Il dati hanno mostrato che Polimedicus non è molto affidabile, soprattutto l'HR. Nel secondo studio è stato sviluppato un nuovo programma, Inca, ed i risultati sono stati confrontati con i dati ottenuti dal primo studio con Polimedicus. I risultati finali hanno mostrato che Inca è più affidabile. Nel terzo studio, abbiamo voluto verificare l'esattezza del calcolo del FatMax con Inca e il test FATmaxwork. 25 soggetti in sovrappeso, tra 40-55 anni, sono stati arruolati e sottoposti al FATmaxwork test. Successivamente, è stato verificato se i valori estrapolati da INCA erano quelli che possono verificarsi durante un carico di prova costante di un'ora. L'analisi ha mostrato una precisione del calcolo della FatMax durante il carico di lavoro. Conclusione: E’ emersa una certa difficoltà nel determinare questo parametro, sia per la variabilità inter-individuale che intra-individuale. In futuro bisognerà migliorare INCA per ottenere protocolli di allenamento ancora più validi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ottimizzazione di un protocollo di anticoagulazione regionale con citrato in CRRT Introduzione: La necessità di un'anticoagulazione continua e l'ipofosforemia in corso di trattamento sono problemi costranti in corso di CRRT. Il nostro studio ha cercato di dimostrare l'efficacia e la sicurezza dell'anticoagulazione regionale con citrato in CVVH basato sull'utilizzo di una soluzione di citrato (18 mmol/L) associata ad una soluzione di reinfusione contenente fosfato, recentemente disponibile in commercio, al fine di ridurre l'ipofosfatemia in corso di CRRT. Metodi: Abbiamo utilizzato il nostro protocollo basato sull'utilizzo di una concentrazione di citrato contenente 18 mmol/l associata ad una soluzione di reinfusione contenente fosfato in un piccolo gruppo di pazienti ricoverati in terapia intensiva post-cardiochirurgica, sottoposti a CRRT per insufficienza renale acuta. Risultati: Il nostro protocollo ha garantito un'adeguata durata del circuito ed un ottimo controllo dell'equilibrio acido-base in ogni paziente. E' stata necessaria solo una minima supplementazione di fosforo in alcuni dei pazienti trattati. Conclusioni: Il nostro protocollo basato sull' utilizzo di una soluzione a concentrazione di citrato maggiore (18 mmol/l), permette un miglior controllo dell'equilibrio acido-base rispetto all'utilizzo della soluzione a più bassa concentrazione di citrato. L'uso di una minore dose di citrato ed il mantenimento di un target maggiore di calcio ionizzato all'interno del circuito sono comunque associati ad un'adeguata durata del circuito. I livelli di fosforemia sono rimasti sostanzialmente stabili nella maggior parte dei pazienti trattati, grazie alla presenza di fosfato nella soluzione utilizzata come reinfusione in post-diluizione.