842 resultados para Non-parametric trajectories


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Objectif : L'évaluation de l'acuité visuelle (AV) chez la personne âgée atteinte de troubles cognitifs peut être limitée par le manque de collaboration ou les difficultés de communication du patient. Très peu d'études ont examiné l'AV chez les patients atteints de déficits sévères de la cognition. L’objectif de cette étude était d’évaluer l'AV chez la personne âgée vulnérable ayant des troubles cognitifs à l'aide d'échelles variées afin de vérifier leur capacité à répondre à ces échelles. Méthodes: Trois groupes de 30 sujets chacun ont été recrutés. Le premier groupe était constitué de sujets jeunes (Moy.±ET: 24.9±3.5ans) et le second, de sujets âgés (70.0±4.5ans), ne présentant aucun trouble de la cognition ou de la communication. Le troisième groupe, composé de sujets atteints de démence faible à sévère (85.6±6.9ans), a été recruté au sein des unités de soins de longue durée de l’Institut Universitaire de Gériatrie de Montréal. Le test du Mini-Mental State Examination (MMSE) a été réalisé pour chaque sujet afin de déterminer leur niveau cognitif. L’AV de chaque participant a été mesurée à l’aide de six échelles validées (Snellen, cartes de Teller, ETDRS-lettres,-chiffres,-Patty Pics,-E directionnel) et présentées selon un ordre aléatoire. Des tests non paramétriques ont été utilisés afin de comparer les scores d’AV entre les différentes échelles, après une correction de Bonferroni-Holm pour comparaisons multiples. Résultats: Le score moyen au MMSE chez les sujets atteints de démence était de 9.8±7.5, alors qu’il était de 17.8±3.7 et 5.2±4.6 respectivement, chez les sujets atteints de démence faible à modérée (MMSE supérieur ou égal à 13; n=11) et sévère (MMSE inférieur à 13; n=19). Tous les sujets des groupes 1 et 2 ont répondu à chacune des échelles. Une grande majorité de sujets avec démence ont répondu à toutes les échelles (n=19) alors qu’un seul sujet n’a répondu à aucune échelle d’AV. Au sein du groupe 3, les échelles d’AV fournissant les scores les plus faibles ont été les cartes de Teller (20/65) et les Patty Pics (20/62), quelque soit le niveau cognitif du sujet, alors que les meilleurs scores d’AV ont été obtenus avec les échelles de Snellen (20/35) et les lettres ETDRS (20/36). Une grande proportion de sujets avec démence sévère ont répondu aux cartes de Teller (n=18) mais le score d’AV obtenu était le plus faible (20/73). Au sein des trois groupes, l’échelle de lettres-ETDRS était la seule dont les scores d’AV ne différaient pas de ceux obtenus avec l’échelle de Snellen traditionnelle. Conclusions: L’acuité visuelle peut être mesurée chez la personne âgée atteinte de troubles cognitifs ou de la communication. Nos résultats indiquent que les échelles les plus universelles, utilisant des lettres comme optotypes, peuvent être utilisées avec de bons résultats chez les personnes âgées atteintes de démence sévère. Nos résultats suggèrent de plus que la mesure d’acuité visuelle doit être tentée chez toutes les personnes, peu importe leur niveau cognitif.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les Indigènes canadiens vivent une rapide transition nutritionnelle marquée par une consommation accrue des produits commercialisés au dépit des aliments traditionnels. Ce mémoire cherche à identifier les patrons alimentaires associés à une meilleure alimentation des femmes autochtones vivant dans les réserves en Colombie Britannique. L’échantillon (n=493) a été sélectionné de l’étude ‘First Nations Food, Nutrition, and Environment Study’. L’étude a utilisé des rappels alimentaires de 24 heures. Pour identifier les patrons alimentaires, un indice de qualité alimentaire (QA) basé sur 10 éléments nutritionnels (fibre alimentaire, gras totaux/saturés, folate, magnésium, calcium, fer, vitamines A, C, D) a permis de classifier les sujets en trois groupes (tertiles). Ces groupes ont été comparés sur leur consommation de 25 groupes alimentaires (GAs) en employant des tests statistiques non-paramétriques (Kruskal-Wallis et ANCOVA). Une analyse discriminante (AD) a confirmé les GAs associés à la QA. La QA des sujets était globalement faible car aucun rappel n’a rencontré les consommations recommandées pour tous les 10 éléments nutritionnels. L'AD a confirmé que les GAs associés de façon significative à la QA étaient ‘légumes et produits végétaux’, ‘fruits’, ‘aliments traditionnels’, ‘produits laitiers faibles en gras’, ‘soupes et bouillons’, et ‘autres viandes commercialisées’ (coefficients standardisés= 0,324; 0,295; 0,292; 0,282; 0,157; -0.189 respectivement). Le pourcentage de classifications correctes était 83.8%. Nos résultats appuient la promotion des choix alimentaires recommandés par le « Guide Alimentaire Canadien- Premières Nations, Inuits, et Métis ». Une consommation accrue de légumes, fruits, produits laitiers faibles en gras, et aliments traditionnels caractérise les meilleurs patrons alimentaires.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L'objectif principal de ce travail est d’étudier en profondeur certaines techniques biostatistiques avancées en recherche évaluative en chirurgie cardiaque adulte. Les études ont été conçues pour intégrer les concepts d'analyse de survie, analyse de régression avec “propensity score”, et analyse de coûts. Le premier manuscrit évalue la survie après la réparation chirurgicale de la dissection aigüe de l’aorte ascendante. Les analyses statistiques utilisées comprennent : analyses de survie avec régression paramétrique des phases de risque et d'autres méthodes paramétriques (exponentielle, Weibull), semi-paramétriques (Cox) ou non-paramétriques (Kaplan-Meier) ; survie comparée à une cohorte appariée pour l’âge, le sexe et la race utilisant des tables de statistiques de survie gouvernementales ; modèles de régression avec “bootstrapping” et “multinomial logit model”. L'étude a démontrée que la survie s'est améliorée sur 25 ans en lien avec des changements dans les techniques chirurgicales et d’imagerie diagnostique. Le second manuscrit est axé sur les résultats des pontages coronariens isolés chez des patients ayant des antécédents d'intervention coronarienne percutanée. Les analyses statistiques utilisées comprennent : modèles de régression avec “propensity score” ; algorithme complexe d'appariement (1:3) ; analyses statistiques appropriées pour les groupes appariés (différences standardisées, “generalized estimating equations”, modèle de Cox stratifié). L'étude a démontrée que l’intervention coronarienne percutanée subie 14 jours ou plus avant la chirurgie de pontages coronariens n'est pas associée à des résultats négatifs à court ou long terme. Le troisième manuscrit évalue les conséquences financières et les changements démographiques survenant pour un centre hospitalier universitaire suite à la mise en place d'un programme de chirurgie cardiaque satellite. Les analyses statistiques utilisées comprennent : modèles de régression multivariée “two-way” ANOVA (logistique, linéaire ou ordinale) ; “propensity score” ; analyses de coûts avec modèles paramétriques Log-Normal. Des modèles d’analyse de « survie » ont également été explorés, utilisant les «coûts» au lieu du « temps » comme variable dépendante, et ont menés à des conclusions similaires. L'étude a démontrée que, après la mise en place du programme satellite, moins de patients de faible complexité étaient référés de la région du programme satellite au centre hospitalier universitaire, avec une augmentation de la charge de travail infirmier et des coûts.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire porte sur la présentation des estimateurs de Bernstein qui sont des alternatives récentes aux différents estimateurs classiques de fonctions de répartition et de densité. Plus précisément, nous étudions leurs différentes propriétés et les comparons à celles de la fonction de répartition empirique et à celles de l'estimateur par la méthode du noyau. Nous déterminons une expression asymptotique des deux premiers moments de l'estimateur de Bernstein pour la fonction de répartition. Comme pour les estimateurs classiques, nous montrons que cet estimateur vérifie la propriété de Chung-Smirnov sous certaines conditions. Nous montrons ensuite que l'estimateur de Bernstein est meilleur que la fonction de répartition empirique en terme d'erreur quadratique moyenne. En s'intéressant au comportement asymptotique des estimateurs de Bernstein, pour un choix convenable du degré du polynôme, nous montrons que ces estimateurs sont asymptotiquement normaux. Des études numériques sur quelques distributions classiques nous permettent de confirmer que les estimateurs de Bernstein peuvent être préférables aux estimateurs classiques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introduction: La stomatite prothétique est une condition inflammatoire chronique de la muqueuse buccale recouverte par une prothèse. Cette maladie est considérée comme la lésion buccale la plus fréquente chez les porteurs de prothèses amovibles. Des études récentes sur l'étiologie de la stomatite prothétique suggèrent que des traitements basés sur la réduction de l'inflammation seraient efficaces dans le traitement de cette maladie. Objectifs: Évaluer l'efficacité du brossage du palais dans le traitement de la stomatite prothétique. Méthodes: Quarante-huit participants (âge moyen : 66,0 ± 11,2 ans) avec un diagnostic de stomatite prothétique, ont été sélectionnés à partir d’un examen préalable de 143 individus, afin de participer à cet essai clinique de phase I à deux centres, réalisé selon un devis de type pré-test/post-test à un seul groupe. L'intervention a consisté en un brossage du palais avec une brosse manuelle après chaque repas et avant le coucher. Des examens cliniques et microbiologiques ont été effectués avant le traitement, et à 1 mois et 3 mois de suivi. Des données supplémentaires ont été obtenues par l'utilisation d'un questionnaire validé. Les résultats primaires et secondaires étaient, respectivement, la rémission de stomatite prothétique et la diminution du nombre de colonies de Candida. Des tests statistiques descriptifs et non paramétriques ont été menés pour analyser les données. Résultats: À 3 mois de suivi, 10,4 % des participants ont été guéris et 70,8 % ont eu une amélioration clinique de la stomatite prothétique grâce au brossage du palais. Une réduction statistiquement significative de la surface et de l’intensité de l’inflammation après 3 mois de brossage du palais a été démontrée (p < 0,0001). L’ampleur de l’effet a varié d’un effet modéré à important (0,34 à 0,54) selon la classification utilisée pour le diagnostique de la stomatite prothétique. De plus, le nombre de colonies de Candida, recueillies par sonication des prothèses et par échantillonnage du palais, a diminué de manière statistiquement significative après 3 mois de brossage (p ≤ 0,05). Conclusion: Les résultats de cette étude suggèrent que le brossage du palais est efficace comme traitement de la stomatite prothétique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mann–Kendall non-parametric test was employed for observational trend detection of monthly, seasonal and annual precipitation of five meteorological subdivisions of Central Northeast India (CNE India) for different 30-year normal periods (NP) viz. 1889–1918 (NP1), 1919–1948 (NP2), 1949–1978 (NP3) and 1979–2008 (NP4). The trends of maximum and minimum temperatures were also investigated. The slopes of the trend lines were determined using the method of least square linear fitting. An application of Morelet wavelet analysis was done with monthly rainfall during June– September, total rainfall during monsoon season and annual rainfall to know the periodicity and to test the significance of periodicity using the power spectrum method. The inferences figure out from the analyses will be helpful to the policy managers, planners and agricultural scientists to work out irrigation and water management options under various possible climatic eventualities for the region. The long-term (1889–2008) mean annual rainfall of CNE India is 1,195.1 mm with a standard deviation of 134.1 mm and coefficient of variation of 11%. There is a significant decreasing trend of 4.6 mm/year for Jharkhand and 3.2 mm/day for CNE India. Since rice crop is the important kharif crop (May– October) in this region, the decreasing trend of rainfall during themonth of July may delay/affect the transplanting/vegetative phase of the crop, and assured irrigation is very much needed to tackle the drought situation. During themonth of December, all the meteorological subdivisions except Jharkhand show a significant decreasing trend of rainfall during recent normal period NP4. The decrease of rainfall during December may hamper sowing of wheat, which is the important rabi crop (November–March) in most parts of this region. Maximum temperature shows significant rising trend of 0.008°C/year (at 0.01 level) during monsoon season and 0.014°C/year (at 0.01 level) during post-monsoon season during the period 1914– 2003. The annual maximum temperature also shows significant increasing trend of 0.008°C/year (at 0.01 level) during the same period. Minimum temperature shows significant rising trend of 0.012°C/year (at 0.01 level) during postmonsoon season and significant falling trend of 0.002°C/year (at 0.05 level) during monsoon season. A significant 4– 8 years peak periodicity band has been noticed during September over Western UP, and 30–34 years periodicity has been observed during July over Bihar subdivision. However, as far as CNE India is concerned, no significant periodicity has been noticed in any of the time series.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Study on variable stars is an important topic of modern astrophysics. After the invention of powerful telescopes and high resolving powered CCD’s, the variable star data is accumulating in the order of peta-bytes. The huge amount of data need lot of automated methods as well as human experts. This thesis is devoted to the data analysis on variable star’s astronomical time series data and hence belong to the inter-disciplinary topic, Astrostatistics. For an observer on earth, stars that have a change in apparent brightness over time are called variable stars. The variation in brightness may be regular (periodic), quasi periodic (semi-periodic) or irregular manner (aperiodic) and are caused by various reasons. In some cases, the variation is due to some internal thermo-nuclear processes, which are generally known as intrinsic vari- ables and in some other cases, it is due to some external processes, like eclipse or rotation, which are known as extrinsic variables. Intrinsic variables can be further grouped into pulsating variables, eruptive variables and flare stars. Extrinsic variables are grouped into eclipsing binary stars and chromospheri- cal stars. Pulsating variables can again classified into Cepheid, RR Lyrae, RV Tauri, Delta Scuti, Mira etc. The eruptive or cataclysmic variables are novae, supernovae, etc., which rarely occurs and are not periodic phenomena. Most of the other variations are periodic in nature. Variable stars can be observed through many ways such as photometry, spectrophotometry and spectroscopy. The sequence of photometric observa- xiv tions on variable stars produces time series data, which contains time, magni- tude and error. The plot between variable star’s apparent magnitude and time are known as light curve. If the time series data is folded on a period, the plot between apparent magnitude and phase is known as phased light curve. The unique shape of phased light curve is a characteristic of each type of variable star. One way to identify the type of variable star and to classify them is by visually looking at the phased light curve by an expert. For last several years, automated algorithms are used to classify a group of variable stars, with the help of computers. Research on variable stars can be divided into different stages like observa- tion, data reduction, data analysis, modeling and classification. The modeling on variable stars helps to determine the short-term and long-term behaviour and to construct theoretical models (for eg:- Wilson-Devinney model for eclips- ing binaries) and to derive stellar properties like mass, radius, luminosity, tem- perature, internal and external structure, chemical composition and evolution. The classification requires the determination of the basic parameters like pe- riod, amplitude and phase and also some other derived parameters. Out of these, period is the most important parameter since the wrong periods can lead to sparse light curves and misleading information. Time series analysis is a method of applying mathematical and statistical tests to data, to quantify the variation, understand the nature of time-varying phenomena, to gain physical understanding of the system and to predict future behavior of the system. Astronomical time series usually suffer from unevenly spaced time instants, varying error conditions and possibility of big gaps. This is due to daily varying daylight and the weather conditions for ground based observations and observations from space may suffer from the impact of cosmic ray particles. Many large scale astronomical surveys such as MACHO, OGLE, EROS, xv ROTSE, PLANET, Hipparcos, MISAO, NSVS, ASAS, Pan-STARRS, Ke- pler,ESA, Gaia, LSST, CRTS provide variable star’s time series data, even though their primary intention is not variable star observation. Center for Astrostatistics, Pennsylvania State University is established to help the astro- nomical community with the aid of statistical tools for harvesting and analysing archival data. Most of these surveys releases the data to the public for further analysis. There exist many period search algorithms through astronomical time se- ries analysis, which can be classified into parametric (assume some underlying distribution for data) and non-parametric (do not assume any statistical model like Gaussian etc.,) methods. Many of the parametric methods are based on variations of discrete Fourier transforms like Generalised Lomb-Scargle peri- odogram (GLSP) by Zechmeister(2009), Significant Spectrum (SigSpec) by Reegen(2007) etc. Non-parametric methods include Phase Dispersion Minimi- sation (PDM) by Stellingwerf(1978) and Cubic spline method by Akerlof(1994) etc. Even though most of the methods can be brought under automation, any of the method stated above could not fully recover the true periods. The wrong detection of period can be due to several reasons such as power leakage to other frequencies which is due to finite total interval, finite sampling interval and finite amount of data. Another problem is aliasing, which is due to the influence of regular sampling. Also spurious periods appear due to long gaps and power flow to harmonic frequencies is an inherent problem of Fourier methods. Hence obtaining the exact period of variable star from it’s time series data is still a difficult problem, in case of huge databases, when subjected to automation. As Matthew Templeton, AAVSO, states “Variable star data analysis is not always straightforward; large-scale, automated analysis design is non-trivial”. Derekas et al. 2007, Deb et.al. 2010 states “The processing of xvi huge amount of data in these databases is quite challenging, even when looking at seemingly small issues such as period determination and classification”. It will be beneficial for the variable star astronomical community, if basic parameters, such as period, amplitude and phase are obtained more accurately, when huge time series databases are subjected to automation. In the present thesis work, the theories of four popular period search methods are studied, the strength and weakness of these methods are evaluated by applying it on two survey databases and finally a modified form of cubic spline method is intro- duced to confirm the exact period of variable star. For the classification of new variable stars discovered and entering them in the “General Catalogue of Vari- able Stars” or other databases like “Variable Star Index“, the characteristics of the variability has to be quantified in term of variable star parameters.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Enhancement of financial inclusivity of rural communities is often recognised as a key strategy for achieving economic development in third world countries. The main objective of this study was to examine the factors that influence consumers’ choice of a rural bank in Gicumbi district of Rwanda. Data was collected using structured questionnaires and analysed using a binary probit regression model and non-parametric procedures. Most consumers were aware of Popular Bank of Rwanda (BPR) and Umurenge SACCO through radio advertisements, social networks and community meetings. Accessibility, interest rates and quality of services influenced choice of a given financial intermediary. Moreover, the decision to open a rural bank account was significantly influenced by education and farm size (p<0.1). These results indicate the need for financial managers to consider these findings for successful marketing campaigns.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As stated in Aitchison (1986), a proper study of relative variation in a compositional data set should be based on logratios, and dealing with logratios excludes dealing with zeros. Nevertheless, it is clear that zero observations might be present in real data sets, either because the corresponding part is completely absent –essential zeros– or because it is below detection limit –rounded zeros. Because the second kind of zeros is usually understood as “a trace too small to measure”, it seems reasonable to replace them by a suitable small value, and this has been the traditional approach. As stated, e.g. by Tauber (1999) and by Martín-Fernández, Barceló-Vidal, and Pawlowsky-Glahn (2000), the principal problem in compositional data analysis is related to rounded zeros. One should be careful to use a replacement strategy that does not seriously distort the general structure of the data. In particular, the covariance structure of the involved parts –and thus the metric properties– should be preserved, as otherwise further analysis on subpopulations could be misleading. Following this point of view, a non-parametric imputation method is introduced in Martín-Fernández, Barceló-Vidal, and Pawlowsky-Glahn (2000). This method is analyzed in depth by Martín-Fernández, Barceló-Vidal, and Pawlowsky-Glahn (2003) where it is shown that the theoretical drawbacks of the additive zero replacement method proposed in Aitchison (1986) can be overcome using a new multiplicative approach on the non-zero parts of a composition. The new approach has reasonable properties from a compositional point of view. In particular, it is “natural” in the sense that it recovers the “true” composition if replacement values are identical to the missing values, and it is coherent with the basic operations on the simplex. This coherence implies that the covariance structure of subcompositions with no zeros is preserved. As a generalization of the multiplicative replacement, in the same paper a substitution method for missing values on compositional data sets is introduced

Relevância:

80.00% 80.00%

Publicador:

Resumo:

There is almost not a case in exploration geology, where the studied data doesn’t includes below detection limits and/or zero values, and since most of the geological data responds to lognormal distributions, these “zero data” represent a mathematical challenge for the interpretation. We need to start by recognizing that there are zero values in geology. For example the amount of quartz in a foyaite (nepheline syenite) is zero, since quartz cannot co-exists with nepheline. Another common essential zero is a North azimuth, however we can always change that zero for the value of 360°. These are known as “Essential zeros”, but what can we do with “Rounded zeros” that are the result of below the detection limit of the equipment? Amalgamation, e.g. adding Na2O and K2O, as total alkalis is a solution, but sometimes we need to differentiate between a sodic and a potassic alteration. Pre-classification into groups requires a good knowledge of the distribution of the data and the geochemical characteristics of the groups which is not always available. Considering the zero values equal to the limit of detection of the used equipment will generate spurious distributions, especially in ternary diagrams. Same situation will occur if we replace the zero values by a small amount using non-parametric or parametric techniques (imputation). The method that we are proposing takes into consideration the well known relationships between some elements. For example, in copper porphyry deposits, there is always a good direct correlation between the copper values and the molybdenum ones, but while copper will always be above the limit of detection, many of the molybdenum values will be “rounded zeros”. So, we will take the lower quartile of the real molybdenum values and establish a regression equation with copper, and then we will estimate the “rounded” zero values of molybdenum by their corresponding copper values. The method could be applied to any type of data, provided we establish first their correlation dependency. One of the main advantages of this method is that we do not obtain a fixed value for the “rounded zeros”, but one that depends on the value of the other variable. Key words: compositional data analysis, treatment of zeros, essential zeros, rounded zeros, correlation dependency

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this paper a colour texture segmentation method, which unifies region and boundary information, is proposed. The algorithm uses a coarse detection of the perceptual (colour and texture) edges of the image to adequately place and initialise a set of active regions. Colour texture of regions is modelled by the conjunction of non-parametric techniques of kernel density estimation (which allow to estimate the colour behaviour) and classical co-occurrence matrix based texture features. Therefore, region information is defined and accurate boundary information can be extracted to guide the segmentation process. Regions concurrently compete for the image pixels in order to segment the whole image taking both information sources into account. Furthermore, experimental results are shown which prove the performance of the proposed method

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introducción: la enfermedad hepática grasa no alcohólica (NAFLD) es una enfermedad muy frecuente y de curso insidioso. El diagnostico, seguimiento y tratamiento de esta condición permanecen aun sin consenso debido principalmente a la falta de conocimiento de su historia natural y la dificultad de un diagnostico preciso de forma no invasiva. Materiales y Métodos: estudio prospectivo, observacional de corte transversal y correlación usando un muestreo no aleatorio de los pacientes que asistieron al servicio de chequeo médico de la Fundación CardioInfantil – Instituto de Cardiología. Se evaluaron variables clínicas y para-clínicas como Índice de Masa Corporal, transaminasas, triglicéridos y apariencia ultrasonográfica del hígado. Se realizo análisis no paramétrico de varianza con la prueba de Kruskal-Wallis y análisis de correlación por medio del índice de correlación de Spearman. Resultados: se incluyeron 619 pacientes. Se encontró una variación estadísticamente significativa (p<0,001) entre todas las variables analizadas agrupadas de acuerdo a la apariencia ultrasonográfica del hígado. Finalmente, se encontraron coeficientes de correlación positivos y estadísticamente significativos (p<0,001) para las mismas variables. Discusión: la evaluación por ultrasonografía del hígado es una opción atractiva para el diagnostico y seguimiento de los pacientes con NAFLD debido a sus características no invasivas, bajo costo y amplia disponibilidad. Los resultados obtenidos sugieren que dada la variación de los parámetros clínicos de acuerdo con la apariencia hepática, esta herramienta puede ser útil tanto en fase de diagnostico como en fase de seguimiento para los pacientes de esta población. Los coeficientes de correlación sugieren que la posibilidad de predecir variables sanguíneas usando este método que debería estudiarse más a fondo. Conclusiones: en conjunto, los resultados de este estudio soportan la utilidad de la evaluación ultrasonográfica del hígado como herramienta de evaluación y posible seguimiento en pacientes con sospecha de NAFLD en esta población.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En Colombia el manejo de pacientes en los diferentes servicios hospitalarios han presentado inconvenientes en el combate de infecciones por bacterias y la resistencia de las mismas; el Staphylococcus aureus Escherichia coli y Pseudomonas aeruginosa, han demostrado evolución en la creación de generaciones resistentes y también han participado junto con la Salmonella y el B.cereus en brotes por ETAS como principales microorganismos causales. En el presente estudio se analizó el aceite esencial de la Conobea scoparioides para evaluar su actividad frente a cinco cepas bacterianas. Se obtuvo el AE y se prepararon las bacterias aplicándose pruebas de sensibilidad y no paramétricas para determinar el porcentaje de inhibición, la evaluación de la MIC y comparar la efectividad del aceite vs la estreptomicina. El aceite esencial presentó actividad principalmente contra el B. cereus con el mayor % de inhibición y una MIC de 3.2 ug/ml, caso diferente presentó P. aeruginosa con un % de crecimiento por encima del 50% presentando una MIC de 16.7 ug/ml. Finalmente podemos concluir que se presentó mayor actividad frente a bacterias gram positivas como el caso del B. cereus que en gram negativas con MIC bajas. Estos resultados permite comparar la actividad de la conobea con estudios recientes bajo la misma modalidad que permiten identificar nuevas plantas con actividad biológica y percibir que la conobea es efectiva en mayor proporción frente a bacterias gram positivas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este estudio fue conducido para evaluar la correlación entre lactato arterial y venoso central en niños con sepsis y choque séptico de una unidad de cuidado intensivo pediátrico. Se incluyeron 42 pacientes con edades comprendidas entre 1 mes y 17 años 364 días con diagnóstico de sepsis y choque séptico que ingresaron a la Unidad de Cuidado Intensivo en un hospital universitario de referencia. Se registró el valor del lactato obtenido de una muestra de sangre arterial y de sangre venosa central tomadas simultáneamente y dentro de las primeras 24 horas del ingreso a la unidad. Por medio de la prueba de Rho de Spearman se encontró una correlación de 0,872 (p<0,001) y se ajustó al uso de medicamentos, vasoactivos, edad y peso (modelo de regresión no paramétrico quantílico), manteniéndose una correlación fuerte y significativa.