961 resultados para continuous variables


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le problème de conception de réseaux est un problème qui a été beaucoup étudié dans le domaine de la recherche opérationnelle pour ses caractéristiques, et ses applications dans des nombreux domaines tels que le transport, les communications, et la logistique. Nous nous intéressons en particulier dans ce mémoire à résoudre le problème de conception de réseaux avec coûts fixes et sans capacité, en satisfaisant les demandes de tous les produits tout en minimisant la somme des coûts de transport de ces produits et des coûts fixes de conception du réseau. Ce problème se modélise généralement sous la forme d’un programme linéaire en nombres entiers incluant des variables continues. Pour le résoudre, nous avons appliqué la méthode exacte de Branch-and-Bound basée sur une relaxation linéaire du problème avec un critère d’arrêt, tout en exploitant les méthodes de génération de colonnes et de génération de coupes. Nous avons testé la méthode de Branch-and-Price-and-Cut sur 156 instances divisées en cinq groupes de différentes tailles, et nous l’avons comparée à Cplex, l’un des meilleurs solveurs d’optimisation mathématique, ainsi qu’à la méthode de Branch-and- Cut. Notre méthode est compétitive et plus performante sur les instances de grande taille ayant un grand nombre de produits.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El Switch arterial se ha convertido en la primera opción quirúrgica en pacientes con Transposición de grandes arterias (DTGA). El objetivo de este estudio es presentar la experiencia de la Fundación Cardioinfantil desde el año 2003 hasta julio del 2011, y determinar los factores de riesgo asociados a bajo gasto y mortalidad. Materiales y métodos: Estudio de caso - cohorte. Se revisaron las historias clínicas de los pacientes para obtener la información de las variables. El análisis se realizó mediante métodos estándar para variables continuas y variables categóricas. Los casos y sus controles se compararon y solo las variables con valores de p < 0.05 se analizaron como factores de riesgo. Resultados: 58 pacientes operados. Mediana de edad 12 días (RIQ 7 - 34), El 70.7% (41/58) de los pacientes fueron hombres. La DTGA con septum integro fue la anomalía más frecuente 53,5% (31/58). La mortalidad fue 15,2% (9/58) y la frecuencia de bajo gasto fue 55,2% (32/58). Entre el grupo de controles y casos no hubo diferencias estadísticamente significativas entre las variables preoperatorias y la presencia de bajo gasto y muerte, excepto el tiempo prolongado de circulación extracorpórea que fue factor de riesgo independiente para mortalidad OR 1.1 IC 95% (1 – 1,2) p de 0.002, y para bajo gasto cardiaco el score de vasoactivos-inotrópicos elevado OR 1.2 IC 95% (1.1 – 1,4) p de 0.001. Conclusiones: La frecuencia de las características de los pacientes operados en nuestra población es similar a lo reportado en la literatura mundial, sin embargo los factores de riesgo para mortalidad y bajo gasto no tuvieron el mismo impacto en nuestra población excepto por el tiempo de circulación extracorpórea y el uso de inotrópicos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Objetivo. Para fortalecer las estrategias preventivas de forma integral, se pretende caracterizar la accidentalidad ocurrida en una empresa del sector de hidrocarburos e identificar los posibles factores de riesgo relacionados con estos eventos. Metodología: Se realizó un estudio descriptivo retrospectivo, utilizando las bases de datos SIGA y AUDICOMP del periodo Julio-2010 a Junio-2013, que almacenan información sobre accidentes laborales en trabajadores vinculados a Petrobras, Colombia. Nuestra variable resultado fue el número de accidentes laborales en función de la experiencia laboral y tiempo de contratación en la empresa, estratificada por características demográficas, propias del cargo ocupado y área anatómica lesionada. A las variables continuas se les calculo las medidas de tendencia central y dispersión y a las categóricas la proporción; se estimó el Odds Ratio (OR) de presentar un accidente en < 1 o entre 1-5 años de contratación. Resultados: se presentaron 457 accidentes, 96% (IC95% 94.2-97.8) fueron hombres, la década entre 25-34 años (36.8; IC95% 32.4-41.2) y el tipo de cargo obrero fueron los más frecuentes (35.3%; IC95% 30.9-39.6). Ser obrero (IC95% 2,11-2,65) y contar con experiencia laboral menor a un año (IC95% 1,78-2,33) fueron los principales factores relacionados con un accidente en < 1 año de contratación; el modelo con mayor AUC fue el de hombres entre 18-24 años de edad, contratados para laborar como obrero y con menos de un año de experiencia laboral (AUC 0,973; IC95% 0,865-0,995). Conclusiones. Los hombres entre 18-24 años de edad, contratados para laborar como obrero y con menos de un año de experiencia laboral, tenían mayor riesgo de presentar un accidente en menos de un año desde la contratación. El modelo propuesto ayudó a identificar a trabajadores con alta probabilidad de presentar un accidente en < 1 año desde la contratación.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Objetivo: Establecer la prevalencia, incapacidad y discapacidad de dolor lumbar en los trabajadores de la planta de fabricación de productos de cerámica, de Madrid Cundinamarca, del turno de 6 am a 2 pm año 2014. Metodología: Se realizó un estudio de corte transversal para determinar la prevalencia, incapacidad y discapacidad de dolor lumbar en un grupo de trabajadores que asisten en el turno de 6 am a 2 pm, en una empresa fabricante de productos de cerámica en el municipio de Madrid, departamento de Cundinamarca, Colombia. Se tuvieron en cuenta variables como edad, puesto de trabajo, antigüedad en cargo actual, consumo de cigarrillo, actividad física, presencia o ausencia de dolor lumbar e intensidad del dolor lumbar. Se aplicaron dos escalas para determinar el nivel de incapacidad y discapacidad para el dolor lumbar. Se empleó la escala de Owestry (ODI, OswestryDisabilityIndex) para evaluar la incapacidad de dolor lumbar y la escala de Roland-Morris para discapacidad física. Para le análisis de las variables continuas se determinó el supuesto de normalidad utilizando la prueba de ShapiroWilks.Para determinar la presencia de asociaciones se utilizó la prueba de Ji cuadrado de Pearson o el test exacto de Fischer si el valor esperado es menor a cinco. Para el análisis de la información se utilizó el software EpiInfo versión 7.1.3 (CDC, Atlanta, EE.UU.) Resultados: Se incluyeron 99 trabajadores, rango de edad entre 32 y 46 años y una mediana de 37 años. Más de la mitad de los trabajadores evaluados reportaron un dolor moderado (n=57), tan solo un 10% reportó máximo dolor, la escala de incapacidad de Oswestry78 trabajadores se ubicaron entre 0 y 40% reflejando esto ausencia de incapacidad, y solo 4 pacientes presentaron valores entre 40 y 60% incapacidad moderada. La escala de discapacidad de Roland-Morris mostró que la mayoría de los trabajadores presentan una discapacidad leve (n=97) y tan solo 2 trabajadores presentaron discapacidad moderada.La única asociación positiva encontrada se dio entre la presencia de dolor lumbar y la ejecución de actividad física una vez a la semana (p 0,005). Conclusiones: el dolor lumbar está presente en más del 50% de los trabajadores encuestados; sin embargo solo 4 de los trabajadores encuestados, presenta incapacidad por este dolor. En cuanto a la discapacidad pudimos determinar que solo 2 de los trabajadores la manifiesta.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The aim of this thesis is to narrow the gap between two different control techniques: the continuous control and the discrete event control techniques DES. This gap can be reduced by the study of Hybrid systems, and by interpreting as Hybrid systems the majority of large-scale systems. In particular, when looking deeply into a process, it is often possible to identify interaction between discrete and continuous signals. Hybrid systems are systems that have both continuous, and discrete signals. Continuous signals are generally supposed continuous and differentiable in time, since discrete signals are neither continuous nor differentiable in time due to their abrupt changes in time. Continuous signals often represent the measure of natural physical magnitudes such as temperature, pressure etc. The discrete signals are normally artificial signals, operated by human artefacts as current, voltage, light etc. Typical processes modelled as Hybrid systems are production systems, chemical process, or continuos production when time and continuous measures interacts with the transport, and stock inventory system. Complex systems as manufacturing lines are hybrid in a global sense. They can be decomposed into several subsystems, and their links. Another motivation for the study of Hybrid systems is the tools developed by other research domains. These tools benefit from the use of temporal logic for the analysis of several properties of Hybrid systems model, and use it to design systems and controllers, which satisfies physical or imposed restrictions. This thesis is focused in particular types of systems with discrete and continuous signals in interaction. That can be modelled hard non-linealities, such as hysteresis, jumps in the state, limit cycles, etc. and their possible non-deterministic future behaviour expressed by an interpretable model description. The Hybrid systems treated in this work are systems with several discrete states, always less than thirty states (it can arrive to NP hard problem), and continuous dynamics evolving with expression: with Ki ¡ Rn constant vectors or matrices for X components vector. In several states the continuous evolution can be several of them Ki = 0. In this formulation, the mathematics can express Time invariant linear system. By the use of this expression for a local part, the combination of several local linear models is possible to represent non-linear systems. And with the interaction with discrete events of the system the model can compose non-linear Hybrid systems. Especially multistage processes with high continuous dynamics are well represented by the proposed methodology. Sate vectors with more than two components, as third order models or higher is well approximated by the proposed approximation. Flexible belt transmission, chemical reactions with initial start-up and mobile robots with important friction are several physical systems, which profits from the benefits of proposed methodology (accuracy). The motivation of this thesis is to obtain a solution that can control and drive the Hybrid systems from the origin or starting point to the goal. How to obtain this solution, and which is the best solution in terms of one cost function subject to the physical restrictions and control actions is analysed. Hybrid systems that have several possible states, different ways to drive the system to the goal and different continuous control signals are problems that motivate this research. The requirements of the system on which we work is: a model that can represent the behaviour of the non-linear systems, and that possibilities the prediction of possible future behaviour for the model, in order to apply an supervisor which decides the optimal and secure action to drive the system toward the goal. Specific problems can be determined by the use of this kind of hybrid models are: - The unity of order. - Control the system along a reachable path. - Control the system in a safe path. - Optimise the cost function. - Modularity of control The proposed model solves the specified problems in the switching models problem, the initial condition calculus and the unity of the order models. Continuous and discrete phenomena are represented in Linear hybrid models, defined with defined eighth-tuple parameters to model different types of hybrid phenomena. Applying a transformation over the state vector : for LTI system we obtain from a two-dimensional SS a single parameter, alpha, which still maintains the dynamical information. Combining this parameter with the system output, a complete description of the system is obtained in a form of a graph in polar representation. Using Tagaki-Sugeno type III is a fuzzy model which include linear time invariant LTI models for each local model, the fuzzyfication of different LTI local model gives as a result a non-linear time invariant model. In our case the output and the alpha measure govern the membership function. Hybrid systems control is a huge task, the processes need to be guided from the Starting point to the desired End point, passing a through of different specific states and points in the trajectory. The system can be structured in different levels of abstraction and the control in three layers for the Hybrid systems from planning the process to produce the actions, these are the planning, the process and control layer. In this case the algorithms will be applied to robotics ¡V a domain where improvements are well accepted ¡V it is expected to find a simple repetitive processes for which the extra effort in complexity can be compensated by some cost reductions. It may be also interesting to implement some control optimisation to processes such as fuel injection, DC-DC converters etc. In order to apply the RW theory of discrete event systems on a Hybrid system, we must abstract the continuous signals and to project the events generated for these signals, to obtain new sets of observable and controllable events. Ramadge & Wonham¡¦s theory along with the TCT software give a Controllable Sublanguage of the legal language generated for a Discrete Event System (DES). Continuous abstraction transforms predicates over continuous variables into controllable or uncontrollable events, and modifies the set of uncontrollable, controllable observable and unobservable events. Continuous signals produce into the system virtual events, when this crosses the bound limits. If this event is deterministic, they can be projected. It is necessary to determine the controllability of this event, in order to assign this to the corresponding set, , controllable, uncontrollable, observable and unobservable set of events. Find optimal trajectories in order to minimise some cost function is the goal of the modelling procedure. Mathematical model for the system allows the user to apply mathematical techniques over this expression. These possibilities are, to minimise a specific cost function, to obtain optimal controllers and to approximate a specific trajectory. The combination of the Dynamic Programming with Bellman Principle of optimality, give us the procedure to solve the minimum time trajectory for Hybrid systems. The problem is greater when there exists interaction between adjacent states. In Hybrid systems the problem is to determine the partial set points to be applied at the local models. Optimal controller can be implemented in each local model in order to assure the minimisation of the local costs. The solution of this problem needs to give us the trajectory to follow the system. Trajectory marked by a set of set points to force the system to passing over them. Several ways are possible to drive the system from the Starting point Xi to the End point Xf. Different ways are interesting in: dynamic sense, minimum states, approximation at set points, etc. These ways need to be safe and viable and RchW. And only one of them must to be applied, normally the best, which minimises the proposed cost function. A Reachable Way, this means the controllable way and safe, will be evaluated in order to obtain which one minimises the cost function. Contribution of this work is a complete framework to work with the majority Hybrid systems, the procedures to model, control and supervise are defined and explained and its use is demonstrated. Also explained is the procedure to model the systems to be analysed for automatic verification. Great improvements were obtained by using this methodology in comparison to using other piecewise linear approximations. It is demonstrated in particular cases this methodology can provide best approximation. The most important contribution of this work, is the Alpha approximation for non-linear systems with high dynamics While this kind of process is not typical, but in this case the Alpha approximation is the best linear approximation to use, and give a compact representation.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Treffers-Daller and Korybski propose to operationalize language dominance on the basis of measures of lexical diversity, as computed, in this particular study, on transcripts of stories told by Polish-English bilinguals in each of their languages They compute four different Indices of Language Dominance (ILD) on the basis of two different measures of lexical diversity, the Index of Guiraud (Guiraud, 1954) and HD-D (McCarthy & Jarvis, 2007). They compare simple indices, which are based on subtracting scores from one language from scores for another language, to more complex indices based on the formula Birdsong borrowed from the field of handedness, namely the ratio of (Difference in Scores) / (Sum of Scores). Positive scores on each of these Indices of Language Dominance mean that informants are more English-dominant and negative scores that they are more Polish-dominant. The authors address the difficulty of comparing scores across languages by carefully lemmatizing the data. Following Flege, Mackay and Piske (2002) they also look into the validity of these indices by investigating to what extent they can predict scores on other, independently measured variables. They use correlations and regression analysis for this, which has the advantage that the dominance indices are used as continuous variables and arbitrary cut-off points between balanced and dominant bilinguals need not be chosen. However, they also show how the computation of z-scores can help facilitate a discussion about the appropriateness of different cut-off points across different data sets and measurement scales in those cases where researchers consider it necessary to make categorial distinctions between balanced and dominant bilinguals. Treffers-Daller and Korybski correlate the ILD scores with four other variables, namely Length of Residence in the UK, attitudes towards English and life in the UK, frequency of usage of English at home and frequency of code-switching. They found that the indices correlated significantly with most of these variables, but there were clear differences between the Guiraud-based indices and the HDD-based indices. In a regression analysis three of the measures were also found to be a significant predictor of English language usage at home. They conclude that the correlations and the regression analyses lend strong support to the validity of their approach to language dominance.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Introdução: a obtenção de um bom controle metabólico é essencial para a prevenção das complicações crônicas do Diabetes Melito (DM). O tratamento é complexo e depende da implementação efetiva das diferentes estratégias terapêuticas disponíveis. Para que isso seja possível, é necessário que o paciente entenda os princípios terapêuticos e consiga executá-los. A precária educação em diabetes é percebida como um dos obstáculos para o alcance das metas terapêuticas. Objetivo: analisar, os fatores associados ao controle metabólico, em pacientes com DM tipo 2 (DM2) não usuários de insulina. Métodos: foi realizado um estudo transversal em pacientes com DM2 não usuários de insulina, selecionados ao acaso entre aqueles que consultavam nos ambulatórios de Medicina Interna, Endocrinologia e Enfermagem do Hospital de Clínicas de Porto Alegre. Os pacientes foram submetidos à avaliação clínica, laboratorial e responderam um questionário que incluía o tipo de tratamento realizado para DM, outros medicamentos e co-morbidades, pesquisa de complicações em ano prévio e avaliação do conhecimento sobre DM. Os pacientes foram classificados em dois grupos, com bom ou mau controle glicêmico, de acordo com o valor da glico-hemoglobina de 1 ponto % acima do limite superior do método utilizado. As comparações entre variáveis contínuas, com distribuição normal, foram analisadas pelo teste t de Student para amostras não-pareadas e para as variáveis de distribuição assimétrica ou com variância heterogênea o teste U de Mann-Whitney. A comparação entre percentagem foi feita pelo teste de qui-quadrado ou exato de Fisher. Foi realizada uma análise logística múltipla para identificar os fatores mais relevantes associados ao controle metabólico (variável dependente). As variáveis independentes com um nível de significância de P < 0,1 na análise bivariada, foram incluídas no modelo. Resultados: foram avaliados 143 pacientes com DM2, idade de 59,3 ± 10,1 anos, duração conhecida do DM 7,5 ± 6,3 anos, índice de massa corporal (IMC) de 29,7 ± 5,2 kg/m².Destes, 94 pacientes (65,73%) apresentavam bom controle glicêmico. Os pacientes com mau controle glicêmico usavam mais anti-hiperglicemiantes orais como monoterapia (OR = 9,37; IC = 2,60-33,81; P=0,004) ou associados (OR = 31,08; IC = 7,42-130,15; P < 0,001). Da mesma maneira, não fizeram dieta em dias de festa (OR = 3,29; IC = 1,51-7,16; P = 0,012). A inclusão do conhecimento sobre diabetes não foi diferente entre os pacientes com bom ou mau controle glicêmico (OR = 1,08; IC = 0,97 - 1,21; P = 0,219). A análise multivariada demonstrou que a consulta com a enfermeira educadora (OR = 0,24; IC = 0,108-0,534; P = 0,003), com o endocrinologista (OR = 0,15 ; IC = 0,063-0,373; P = 0,001) e o uso de hipolipemiantes (OR = 0,10; IC = 0,016 - 0,72; P = 0,054) foram associados ao bom controle glicêmico, ajustados para a não realização de dieta em festas, uso de anti-hiperglicemiantes orais e conhecimento sobre diabetes. Conclusão: o controle metabólico em pacientes DM2 é influenciado pelas atividades de educação com enfermeira e endocrinologista. O tratamento do DM2 deve incluir atividades de educação de forma sistemática.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A mortalidade dos pacientes diabéticos, quando iniciam tratamento hemodialítico, ainda é muito elevada, significativamente maior do que a dos pacientes não diabéticos. As doenças cardíacas são a principal causa de morte nestes pacientes. O diabetes, por si só, está associado a uma alta prevalência de hipertensão, doença cardiovascular e insuficiência cardíaca, resultando em morbi-mortalidade significativas. Tradicionalmente, a mortalidade tem sido associada à cardiopatia isquêmica. A mortalidade cardiovascular, entretanto, não está relacionada apenas à isquemia, mas também à insuficiência cardíaca e à morte súbita. O objetivo deste estudo foi analisar o papel da doença cardiovascular como fator prognóstico para a morte de pacientes diabéticos e não diabéticos, que iniciam hemodiálise, levando em consideração outros fatores. Este foi um estudo prospectivo de uma coorte de 40 pacientes diabéticos e 28 não diabéticos, que iniciaram programa de hemodiálise, de agosto de 1996 a junho de 1999, em 5 hospitais de Porto Alegre, Brasil. O tempo total de acompanhamento foi de 4,25 anos. A avaliação inicial, realizada entre o 20 e o 30 mês de hemodiálise, incluiu: um questionário com características demográficas, história do diabetes e suas complicações, história de hipertensão e acidente vascular cerebral; o exame físico incluindo avaliação nutricional e exame oftalmológico; e avaliação laboratorial com medidas de parâmetros nutricionais, bioquímicos, hormonais, perfil lipídico, e controle metabólico do diabetes, além da avaliação da adequação da diálise. Para a avaliação cardiovascular foram utilizados: questionário Rose, ECG em repouso, cintilografia em repouso e sob dipiridamol, e ecocardiograma bi-dimensional e com Doppler. A mortalidade foi analisada ao final dos 51 meses, e as causas de morte, definidas pelos registros médicos, atestados de óbito ou informações do médico assistente ou familiar. Na análise estatística, foram empregados o teste t de Student, o qui-quadrado (χ2) ou teste exato de Fisher. Para a análise da sobrevida, o método de Kaplan-Meier foi utilizado, e, para identificar os principais fatores associados à mortalidade, construiu-se um modelo de regressão múltipla de Cox. O nÍvel de significância adotado foi de 5%. Ao final do estudo, os pacientes diabéticos tiveram um índice de mortalidade significativamente mais elevado do que os pacientes sem diabetes (47,5% vs. 7,1%; P=0,0013, log rank test). Na análise de Cox, o padrão pseudonormal ou restritivo de disfunção diastólica esteve associado a um risco de 3,2 (IC 95%:1,2-8,8; P=0,02), e a presença de diabetes, a um risco de 4,7 (IC 95%:1,03-21,4; P=0,04) para a morte. Concluiu-se que a disfunção diastólica do ventrículo esquerdo foi o principal preditor de mortalidade nesta coorte de pacientes que estão iniciando tratamento hemodialítico.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Objetivos – Descrever as características clínicas de crianças entre 1 e 12 meses hospitalizadas com diagnóstico de bronquiolite viral aguda (BVA), nos primeiros dias de internação, e verificar se o tempo de dessaturação de oxigênio (TD) tem valor prognóstico nesses pacientes. Metodologia – Estudo de coorte realizado de maio a outubro de 2001 com 111 pacientes entre 1 e 12 meses de idade internados no Hospital da Criança Santo Antônio, de Porto Alegre (RS), com diagnóstico de BVA na admissão, com saturação transcutânea de oxigênio da hemoglobina (SatHb) menor que 95% e em oxigenoterapia por cateter extranasal há menos de 24 horas. A gravidade foi verificada através do tempo de internação, tempo de oxigenoterapia e tempo para saturar 95% em ar ambiente (desfechos). Foram realizadas avaliações clínicas duas vezes ao dia (manhã e tarde), durante o período em que o paciente necessitou de oxigênio suplementar (até atingir saturação transcutânea de oxigênio de 95% em ar ambiente), com limite de dez avaliações. Os pacientes tiveram o oxigênio adicional retirado. Foi verificado, então, o tempo necessário para a saturação decrescer até 90% (TD90) e 85% (TD85), limitando-se a medida em no máximo cinco minutos. Foi constituído um escore de gravidade com os sinais clínicos anotados. Utilizou-se o teste do qui-quadrado ou teste exato de Fischer para comparar entre si os grupos de variáveis categóricas e o teste t ou MannWhitney para variáveis numéricas. Foi utilizada a correlação de Spearman para avaliar associações entre variáveis contínuas de distribuição assimétrica (escore de gravidade, tempo de internação, tempo de oxigenoterapia total e tempo para saturar acima ou igual a 95% em ar ambiente). Considerou-se alfa crítico de 5% em todas as comparações, exceto nas correlações em que foi utilizada a correção de Bonferroni para comparações múltiplas (30 correlações: p= 0,002; 10 correlações: p= 0,005). Os dados relativos ao peso e estatura para a idade foram digitados e analisados no programa específico do EpiInfo que utiliza o padrão NCHS (EpiNut). Resultados – Houve leve predomínio do sexo masculino (54%), predominância de idade inferior a quatro meses (61,3%), prevalência maior nos meses de junho e julho, freqüência elevada de história de prematuridade (23%) e de baixo peso de nascimento (14%). As manifestações clínicas prévias à hospitalização (falta de ar, chiado no peito, febre e parar de respirar) ocorreram, na sua maioria, nos três dias anteriores. Da população estudada, 45% tinha história de sibilância prévia, a maioria com um ou dois episódios relatados (31,5%). Esses pacientes foram analisados separadamente e tiveram resultados semelhantes ao grupo com BVA. A freqüência de desnutrição moderada e grave, excluídos os pacientes com história de prematuridade, foi de 26 pacientes (23%). Todos os pacientes utilizaram broncodilatador inalatório; 20% do grupo com BVA receberam corticosteróides sistêmicos e 47% de toda população, antibióticos. A mediana do uso de oxigênio em pacientes com BVA foi de 4,4 dias (IIQ 70,2-165,2) e o tempo de oxigenoterapia até saturar 95% em ar ambiente foi de 3,4 dias (IIQ 55-128). A mediana do tempo de internação hospitalar foi de 7 dias (IIQ 5-10,5) entre os pacientes com BVA; neste aspecto, apresentou diferença (p = 0,041) em relação ao grupo com sibilância prévia, que teve um tempo de internação mais longo (9 dias, IIQ 5-12). Observou-se pouca variabilidade clínica no período estudado, através da aplicação do escore clínico. Não se encontraram correlações estatisticamente significativas entre os escores clínicos e os TDs com os desfechos. Conclusões – Os TDs como elementos auxiliares na avaliação de pacientes em oxigenoterapia não foram clinicamente úteis neste estudo. É possível, no entanto, que, avaliando pacientes com maiores diferenças clínicas entre si, essas aferições possam mostrar-se importantes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Introdução: O diagnóstico microbiológico da infecção por Legionella é complexo, pois a bactéria não é visualizada à coloração de Gram no escarro, e sua cultura não é realizada na maioria dos laboratórios clínicos. A imunofluorescência direta nas secreções respiratórias tem baixa sensibilidade, em torno de 40% e a técnica da “PCR” não é ainda recomendada para o diagnóstico clínico (CDC, 1997). A detecção de anticorpos no soro é a técnica mais utilizada, e o critério definitivo é a soroconversão para no mínimo 1:128, cuja sensibilidade é de 70 a 80% (Edelstein, 1993). Como critérios diagnósticos de possível pneumonia por Legionella, eram utilizados: título único de anticorpos a L pneumophila positivo na diluição 1:256, em paciente com quadro clínico compatível (CDC, 1990) e o achado de antígeno a Legionella na urina (WHO, 1990). Nos últimos anos, porém, com o uso crescente do teste de antigenúria, foram detectados casos de pneumonia por Legionella, que não eram diagnosticados por cultura ou sorologia, tornando-o método diagnóstico de certeza para o diagnóstico de pneumonia por Legionella (CDC, 1997). Por sua fácil execução, resultado imediato, e alta sensibilidade - de 86% a 98% (Kashuba & Ballow, 1986; Harrison & Doshi, 2001), tem sido recomendado para o diagnóstico das PAC que necessitam internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001; Marrie, 2001), especialmente em UTI (ATS, 2001). Vários estudos documentaram baixo valor preditivo positivo do título único positivo de 1:256, tornando-o sem valor para o diagnóstico da pneumonia por Legionella, exceto, talvez, em surtos (Plouffe et al., 1995). Outros detectaram alta prevalência de anticorpos positivos na diluição 1:256 na população, em pessoas normais (Wilkinson et al., 1983; Nichol et al., 1991). A partir de 1996, o CDC de Atlanta recomendou que não seja mais utilizado o critério de caso provável de infecção por Legionella pneumophila por título único de fase convalescente ≥1:256, por falta de especificidade(CDC, 1997). A pneumonia por Legionella é raramente diagnosticada, e sua incidência é subestimada. Em estudos de PAC, a incidência da pneumonia por Legionella nos EUA, Europa, Israel e Austrália, foi estimada entre 1% a 16% (Muder & Yu, 2000). Nos EUA, foi estimado que cerca de 8 000 a 23 000 casos de PAC por Legionella ocorrem anualmente, em pacientes que requerem hospitalização (Marston et al., 1994 e 1977). No Brasil, a incidência de PAC causadas por Legionella em pacientes hospitalizados é tema de investigação pertinente, ainda não relatado na literatura. Objetivo: detectar a incidência de pneumonias causadas por Legionella pneumophila sorogrupos 1 a 6, em pacientes que internaram no Hospital de Clínicas de Porto Alegre por PAC, por um ano. Material e Métodos: o delineamento escolhido foi um estudo de coorte (de incidência), constituída por casos consecutivos de pneumonia adquirida na comunidade que internaram no HCPA de 19 de julho de 2000 a 18 de julho de 2001. Para a identificação dos casos, foram examinados diariamente o registro computadorizado das internações hospitalares, exceto as internações da pediatria e da obstetrícia, sendo selecionados todos os pacientes internados com o diagnóstico de pneumonia e de insuficiência respiratória aguda. Foram excluídos aqueles com menos de 18 anos ou mais de 80 anos; os procedentes de instituições, HIV-positivos, gestantes, pacientes restritos ao leito; e portadores de doença estrutural pulmonar ou traqueostomias. Foram excluídos os pacientes que tivessem tido alta hospitalar nos últimos 15 dias, e aqueles já incluídos no decorrer do estudo. Os pacientes selecionados foram examinados por um pesquisador, e incluídos para estudo se apresentassem infiltrado ao RX de tórax compatível com pneumonia, associado a pelo menos um dos sintomas respiratórios maiores (temperatura axilar > 37,8ºC, tosse ou escarro; ou dois sintomas menores (pleurisia, dispnéia, alteração do estado mental, sinais de consolidação à ausculta pulmonar, mais de 12 000 leucócitos/mm3). O estudo foi previamente aprovado pela Comissão de Ética em Pesquisa do HCPA. Os pacientes eram entrevistados por um pesquisador, dando seu consentimento por escrito, e então seus dados clínicos e laboratoriais eram registrados em protocolo individual. Não houve interferência do pesquisador, durante a internação, exceto pela coleta de urina e de sangue para exame laboratoriais específicos da pesquisa. Os pacientes eram agendados, no ambulatório de pesquisa, num prazo de 4 a 12 semanas após sua inclusão no estudo, quando realizavam nova coleta de sangue, RX de tórax de controle, e outros exames que se fizessem necessários para esclarecimento diagnóstico.Todos os pacientes foram acompanhados por 1 ano, após sua inclusão no estudo.Foram utilizadas a técnica de imunofluorescência indireta para detecção de anticorpos das classes IgG, IgM e IgA a Legionella pneumophila sorogrupos 1 a 6 no soro, em duas amostras, colhidas, respectivamente, na 1ª semana de internação e depois de 4 a 12 semanas; e a técnica imunológica por teste ELISA para a detecção do antígeno de Legionella pneumophila sorogrupo 1 na urina, colhida na primeira semana de internação. As urinas eram armazenadas, imediatamente após sua coleta, em freezer a –70ºC, e depois descongeladas e processadas em grupos de cerca de 20 amostras. A imunofluorescência foi feita no laboratório de doenças Infecciosas da Universidade de Louisville (KY, EUA), em amostras de soro da fase aguda e convalescente, a partir da diluição 1:8; e a detecção do antígeno de Legionella pneumophila sorogrupo 1, nas amostras de urina, foi realizada no laboratório de pesquisa do HCPA, pelos investigadores, utilizando um kit comercial de teste ELISA fabricado por Binax (Binax Legionella Urinary Enzyme Assay, Raritan, EUA). As urinas positivas eram recongeladas novamente, para serem enviadas para confirmação no mesmo laboratório americano, ao fim do estudo. Foram adotados como critérios definitivos de infecção por Legionella pneumophila sorogrupos 1 a 6, a soroconversão (elevação de 4 vezes no título de anticorpos séricos entre o soro da fase aguda e da fase convalescente para no mínimo 1:128); ou o achado de antígeno de L pneumophila sorogrupo 1 na urina não concentrada, numa razão superior a 3, conforme instruções do fabricante e da literatura.Os pacientes foram classificados, de acordo com suas características clínicas, em 1º) portadores de doenças crônicas (doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal); 2º) portadores de doenças subjacentes com imunossupressão; 3º) pacientes hígidos ou com outras doenças que não determinassem insuficiência orgânica. Imunossupressão foi definida como esplenectomia, ser portador de neoplasia hematológica, portador de doença auto-imune, ou de transplante; ou uso de medicação imunossupressora nas 4 semanas anteriores ao diagnóstico (Yu et al., 2002b); ou uso de prednisolona 10 mg/dia ou equivalente nos últimos 3 meses (Lim et al., 2001). As características clínicas e laboratoriais dos pacientes que evoluíram ao óbito por pneumonia foram comparados àquelas dos pacientes que obtiveram cura. Para a análise das variáveis categóricas, utilizou-se o teste qui-quadrado de Pearson ou teste exato de Fisher. Para as variáveis numéricas contínuas, utilizou-se o teste “t“ de Student. Um valor de p< 0,05 foi considerado como resultado estatisticamente significativo (programas SPSS, versão 10). Foi calculada a freqüência de mortes por pneumonia na população estudada, adotando-se a alta hospitalar como critério de cura. Foi calculada a incidência cumulativa para pneumonia por Legionella pneumophila sorogrupos 1 a 6, em um hospital geral, no período de 1 ano. Resultados: durante um ano de estudo foram examinados 645 registros de internação, nos quais constavam, como motivo de baixa hospitalar, o diagnóstico de pneumonia ou de insuficiência respiratória aguda; a maioria desses diagnósticos iniciais não foram confirmados. Desses 645 pacientes, foram incluídos no estudo 82 pacientes, nos quais os critérios clínicos ou radiológicos de pneumonia foram confirmados pelos pesquisadores. Durante o acompanhamento desses pacientes, porém, foram excluídos 23 pacientes por apresentarem outras patologias que mimetizavam pneumonia: DPOC agudizado (5), insuficiência cardíaca (3), tuberculose pulmonar (2), colagenose (1), fibrose pulmonar idiopática (1), edema pulmonar em paciente com cirrose (1), somente infecçâo respiratória em paciente com sequelas pulmonares (4); ou por apresentarem critérios de exclusão: bronquiectasias (4), HIV positivo (1), pneumatocele prévia (1). Ao final, foram estudados 59 pacientes com pneumonia adquirida na comunidade, sendo 20 do sexo feminino e 39 do sexo masculino, com idade entre 24 e 80 anos (média de 57,6 anos e desvio padrão de ±10,6). Tivemos 36 pacientes com doenças subjacentes classificadas como “doenças crônicas”, dos quais 18 pacientes apresentavam mais de uma co-morbidade, por ordem de prevalência: doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal; neoplasias ocorreram em 9 pacientes, sendo sólidas em 7 pacientes e hematológicas em 2. Dos 59 pacientes, 61% eram tabagistas e 16,9%, alcoolistas. Do total, 10 pacientes apresentavam imunossupressão. Dos demais 13 pacientes, somente um era previamente hígido, enquanto os outros apresentavam tabagismo, sinusite, anemia, HAS, gota, ou arterite de Takayasu. A apresentação radiológica inicial foi broncopneumonia em 59,3% dos casos; pneumonia alveolar ocorreu em 23,7% dos casos, enquanto ambos padrões ocorreram em 15,2% dos pacientes. Pneumonia intersticial ocorreu em somente um caso, enquanto broncopneumonia obstrutiva ocorreu em 5 pacientes (8,5%). Derrame pleural ocorreu em 22% dos casos, e em 21 pacientes (35%) houve comprometimento de mais de um lobo ao RX de tórax. Foram usados beta-lactâmicos para o tratamento da maioria dos pacientes (72,9%9). A segunda classe de antibióticos mais usados foi a das fluoroquinolonas respiratórias, que foram receitadas para 23 pacientes (39,0%), e em 3º lugar, os macrolídeos, usados por 11 pacientes (18,6%). Apenas 16 pacientes não usaram beta-lactâmicos, em sua maioria recebendo quinolonas ou macrolídeos. Dos 43 pacientes que usaram beta-lactâmicos, 25 não usaram nem macrolídeos, nem quinolonas. Em 13 pacientes as fluoroquinolonas respiratórias foram as únicas drogas usadas para o tratamento da pneumonia. Do total, 8 pacientes foram a óbito por pneumonia; em outros 3 pacientes, o óbito foi atribuído a neoplasia em estágio avançado. Dos 48 pacientes que obtiveram cura, 33 (68,7%) estavam vivos após 12 meses. Os resultados da comparação realizada evidenciaram tendência a maior mortalidade no sexo masculino e em pacientes com imunossupressão, porém essa associação não alcançou significância estatística. Os pacientes que usaram somente beta-lactâmicos não apresentaram maior mortalidade do que os pacientes que usaram beta-lactâmicos associados a outras classes de antibióticos ou somente outras classes de antibióticos. Examinando-se os pacientes que utiizaram macrolídeos ou quinolonas em seu regime de tratamento, isoladamente ou combinados a outros antibióticos, observou-se que também não houve diferença dos outros pacientes, quanto à mortalidade. Os pacientes com padrão radiológico de pneumonia alveolar tiveram maior mortalidade, e essa diferença apresentou uma significância limítrofe (p= 0,05). Nossa mortalidade (11,9%) foi similar à de Fang et al. (1990), em estudo clássico de 1991 (13,7%); foi também similar à média de mortalidade das PAC internadas não em UTI (12%), relatada pela ATS, no seu último consenso para o tratamento empírico das PAC (ATS, 2001). Foram detectados 3 pacientes com pneumonia por Legionella pneumophila sorogrupo 1 na população estudada: 2 foram diagnosticados por soroconversão e por antigenúria positiva, e o 3º foi diagnosticado somente pelo critério de antigenúria positiva, tendo sorologia negativa, como alguns autores (McWhinney et al., 2000). Dois pacientes com PAC por Legionella não responderam ao tratamento inicial com beta-lactâmicos, obtendo cura com levofloxacina; o 3º paciente foi tratado somente com betalactâmicos, obtendo cura. Conclusões: A incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6, no HCPA, foi de 5,1%, que representa a incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6 em um hospital geral universitário. Comentários e Perspectivas: Há necessidade de se empregar métodos diagnósticos específicos para o diagnóstico das pneumonias por Legionella em nosso meio, como a cultura, a sorologia com detecção de todas as classes de anticorpos, e a detecção do antígeno urinário, pois somente com o uso simultâneo de técnicas complementares pode-se detectar a incidência real de pneumonias causadas tanto por Legionella pneumophila, como por outras espécies. A detecção do antígeno de Legionella na urina é o teste diagnóstico de maior rendimento, sendo recomendado seu uso em todas as PAC que necessitarem internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001); em todos os pacientes com PAC que apresentarem fatores de risco potenciais para legionelose (Marrie, 2001); e para o diagnóstico etiológico das pneumonias graves (ATS, 2001). Seu uso é indicado, com unanimidade na literatura, para a pesquisa de legionelose nosocomial e de surtos de legionelose na comunidade.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This paper analyzes the performance of a parallel implementation of Coupled Simulated Annealing (CSA) for the unconstrained optimization of continuous variables problems. Parallel processing is an efficient form of information processing with emphasis on exploration of simultaneous events in the execution of software. It arises primarily due to high computational performance demands, and the difficulty in increasing the speed of a single processing core. Despite multicore processors being easily found nowadays, several algorithms are not yet suitable for running on parallel architectures. The algorithm is characterized by a group of Simulated Annealing (SA) optimizers working together on refining the solution. Each SA optimizer runs on a single thread executed by different processors. In the analysis of parallel performance and scalability, these metrics were investigated: the execution time; the speedup of the algorithm with respect to increasing the number of processors; and the efficient use of processing elements with respect to the increasing size of the treated problem. Furthermore, the quality of the final solution was verified. For the study, this paper proposes a parallel version of CSA and its equivalent serial version. Both algorithms were analysed on 14 benchmark functions. For each of these functions, the CSA is evaluated using 2-24 optimizers. The results obtained are shown and discussed observing the analysis of the metrics. The conclusions of the paper characterize the CSA as a good parallel algorithm, both in the quality of the solutions and the parallel scalability and parallel efficiency

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A constructive heuristic algorithm (CHA) to solve distribution system planning (DSP) problem is presented. The DSP is a very complex mixed binary nonlinear programming problem. A CHA is aimed at obtaining an excellent quality solution for the DSP problem. However, a local improvement phase and a branching technique were implemented in the CHA to improve its solution. In each step of the CHA, a sensitivity index is used to add a circuit or a substation to the distribution system. This sensitivity index is obtained by solving the DSP problem considering the numbers of circuits and substations to be added as continuous variables (relaxed problem). The relaxed problem is a large and complex nonlinear programming and was solved through an efficient nonlinear optimization solver. Results of two tests systems and one real distribution system are presented in this paper in order to show the ability of the proposed algorithm.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Little evidence-based guidance is available to aid clinicians in determining short-term prognoses in very severe COPD patients. Therefore, the present study was designed to provide a prospective assessment (1) of the mortality rates and (2) whether the baseline measurements may be determinants of 1-year mortality in hypoxemic COPD patients receiving long-term oxygen therapy (LTOT).Seventy-eight clinically stable patients with advanced COPD treated using LTOT were enrolled in a prospective cohort study. Outcome variable: first-year mortality. Baseline measurements: categorical variables: age (<60 or >= 60 years); gender; body mass index (<20 or >= 20 kg/m(2)); fat-free mass (FFM) index (<16 [men] and <15kg/m(2) [women]; baseline dyspnea index (BDI) (<= 3 or >3); and corticosteroid use. Continuous variables: smoking history; lung function; FFM; fat mass; hemoglobin; hematocrit; arterial blood gases; forearm muscle strength; St. George's Respiratory Questionnaire (SGRQ); and comorbidity score. By the end of 1-year of follow-up, 12 patients (15.4%) had died. Kaplan-Meier curves showed that BDI <= 3 was the only variable associated with higher mortality. Cox proportional hazards analysis revealed that tower PaO2 and SPO2, higher PaCO2 and SGRQ scores were associated with reduced survival. In the multivariate analysis, BDI remained predictive of mortality (hazard ratio [HR], 0.50; 95% confidence interval [CI], 0.31-0.81), as did PaO2 (HR, 0.49; 95% CI, 0.26-0.95). These data suggest that readily available parameters as dyspnea intensity and hypoxemia severity may be useful in predicting first-year survival rates in advanced COPD patients receiving LTOT (C) 2007 Elsevier Ltd. All rights reserved.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Background and Purpose - the purpose of this research was to evaluate whether an association exists between the presence of atherosclerotic plaque in the thoracic aorta and left ventricular hypertrophy (LVH) in patients with a cerebrovascular event.Methods - We included 116 consecutive patients ( 79 men; mean age, 62 +/- 12.4 years) with previous history of stroke or transient ischemic attack in a cross-sectional study. Transthoracic echocardiogram was performed to diagnose LVH and transesophageal echocardiogram for the detection of atheromas of the thoracic aorta. Continuous variables were analyzed by Student t or Mann-Whitney tests and categorized variables by Goodman test. From the significant association of LVH and age with atheromatous disease of the aorta, an adjustment to the multivariate logistic model was made using high blood pressure history or age as covariates. All of the statistical tests were carried out at a level of 5% significance.Results - Almost half of the patients (43.1%) presented atherosclerotic lesions in the aorta. LVH was present in 90.0% of patients with plaque and in only 30.3% of patients without plaque. Using high blood pressure as a covariate, the risk of patients with LVH presenting atherosclerotic plaque in the aorta was 18.23-fold greater than the risk for patients without LVH (95% CI, 5.68 to 58.54; P < 0.0001). Adding age into the model, the risk increased to 26.36 ( 95% CI, 7.14 to 97.30; P < 0.0001).Conclusions - LVH detected by conventional echocardiogram is associated with high risk of atherosclerotic plaque in the aorta and would be used as a criterion for indication of transesophageal echocardiography in patients with previous stroke or transient ischemic attack LVH.