997 resultados para GLAUCOMA PROBABILITY SCORE


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Using the single-particle amplitudes from a 20-level coupled-channel calculation with ab initio relativistic self consistent LCAO-MO Dirac-Fock-Slater energy eigenvalues and matrix elements we calculate within the frame of the inclusive probability formalism impact-parameter-dependent K-hole transfer probabilities. As an example we show results for the heavy asymmetric collision system S{^15+} on Ar for impact energies from 4.7 to 16 MeV. The inclusive probability formalism which reinstates the many-particle aspect of the collision system permits a qualitative and quantitative agreement with the experiment which is not achieved by the single-particle picture.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Protecting the quality of children growth and development becomes a supreme qualification for the betterment of a nation. Double burden child malnutrition is emerging worldwide which might have a strong influence to the quality of child brain development and could not be paid-off on later life. Milk places a notable portion during the infancy and childhood. Thus, the deep insight on milk consumption pattern might explain the phenomenon of double burden child malnutrition correlated to the cognitive impairments. Objective: Current study is intended (1) to examine the current face of Indonesian double burden child malnutrition: a case study in Bogor, West Java, Indonesia, (2) to investigate the association of this phenomenon with child brain development, and (3) to examine the contribution of socioeconomic status and milk consumption on this phenomenon so that able to formulate some possible solutions to encounter this problem. Design: A cross-sectional study using a structured coded questionnaire was conducted among 387 children age 5-6 years old and their parents from 8 areas in Bogor, West-Java, Indonesia on November 2012 to December 2013, to record some socioeconomic status, anthropometric measurements, and history of breast feeding. Diet and probability of milk intake was assessed by two 24 h dietary recalls and food frequency questionnaire (FFQ). Usual daily milk intake was calculated using Multiple Source Method (MSM). Some brain development indicators (IQ, EQ, learning, and memory ability) using Projective Multi-phase Orientation method was also executed to learn the correlation between double burden child malnutrition and some brain development indicator. Results and conclusions: A small picture of child double burden malnutrition is shown in Bogor, West Java, Indonesia, where prevalence of Severe Acute Malnutrition (SAM) is 27.1%, Moderate Acute Malnutrition (MAM) is 24.9%, and overnutrition is 7.7%. This phenomenon proves to impair the child brain development. The malnourished children, both under- and over- nourished children have significantly (P-value<0.05) lower memory ability compared to the normal children (memory score, N; SAM = 45.2, 60; MAM = 48.5, 61; overweight = 48.4, 43; obesity = 47.9, 60; normal = 52.4, 163). The plausible reasons behind these evidences are the lack of nutrient intake during the sprout growth period on undernourished children or increasing adiposity on overnourished children might influence the growth of hippocampus area which responsible to the memory ability. Either undernutrition or overnutrition, the preventive action on this problem is preferable to avoid ongoing cognitive performance loss of the next generation. Some possible solutions for this phenomenon are promoting breast feeding initiation and exclusive breast feeding practices for infants, supporting the consumption of a normal portion of milk (250 to 500 ml per day) for children, and breaking the chain of poverty by socioeconomic improvement. And, the national food security becomes the fundamental point for the betterment of the next. In the global context, the causes of under- and over- nutrition have to be opposed through integrated and systemic approaches for a better quality of the next generation of human beings.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper uses the data of 1338 rural households in the Northern Mountainous Region of Vietnam to examine the extent to which subsidised credit targets the poor and its impacts. Principal Component Analysis and Propensity Score Matching were used to evaluate the depth of outreach and the income impact of credit. To address the problem of model uncertainty, the approach of Bayesian Model Average applied to the probit model was used. Results showed that subsidised credit successfully targeted the poor households with 24.10% and 69.20% of clients falling into the poorest group and the three bottom groups respectively. Moreover, those who received subsidised credit make up 83% of ethnic minority households. These results indicate that governmental subsidies are necessary to reach the poor and low income households, who need capital but are normally bypassed by commercial banks. Analyses also showed that ethnicity and age of household heads, number of helpers, savings, as well as how affected households are by shocks were all factors that further explained the probability at which subsidised credit has been assessed. Furthermore, recipients obtained a 2.61% higher total income and a 5.93% higher farm income compared to non-recipients. However, these small magnitudes of effects are statistically insignificant at a 5% level. Although the subsidised credit is insufficient to significantly improve the income of the poor households, it possibly prevents these households of becoming even poorer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Object recognition is complicated by clutter, occlusion, and sensor error. Since pose hypotheses are based on image feature locations, these effects can lead to false negatives and positives. In a typical recognition algorithm, pose hypotheses are tested against the image, and a score is assigned to each hypothesis. We use a statistical model to determine the score distribution associated with correct and incorrect pose hypotheses, and use binary hypothesis testing techniques to distinguish between them. Using this approach we can compare algorithms and noise models, and automatically choose values for internal system thresholds to minimize the probability of making a mistake.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Graphical techniques for modeling the dependencies of randomvariables have been explored in a variety of different areas includingstatistics, statistical physics, artificial intelligence, speech recognition, image processing, and genetics.Formalisms for manipulating these models have been developedrelatively independently in these research communities. In this paper weexplore hidden Markov models (HMMs) and related structures within the general framework of probabilistic independencenetworks (PINs). The paper contains a self-contained review of the basic principles of PINs.It is shown that the well-known forward-backward (F-B) and Viterbialgorithms for HMMs are special cases of more general inference algorithms forarbitrary PINs. Furthermore, the existence of inference and estimationalgorithms for more general graphical models provides a set of analysistools for HMM practitioners who wish to explore a richer class of HMMstructures.Examples of relatively complex models to handle sensorfusion and coarticulationin speech recognitionare introduced and treated within the graphical model framework toillustrate the advantages of the general approach.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Compositional data analysis motivated the introduction of a complete Euclidean structure in the simplex of D parts. This was based on the early work of J. Aitchison (1986) and completed recently when Aitchinson distance in the simplex was associated with an inner product and orthonormal bases were identified (Aitchison and others, 2002; Egozcue and others, 2003). A partition of the support of a random variable generates a composition by assigning the probability of each interval to a part of the composition. One can imagine that the partition can be refined and the probability density would represent a kind of continuous composition of probabilities in a simplex of infinitely many parts. This intuitive idea would lead to a Hilbert-space of probability densities by generalizing the Aitchison geometry for compositions in the simplex into the set probability densities

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The Aitchison vector space structure for the simplex is generalized to a Hilbert space structure A2(P) for distributions and likelihoods on arbitrary spaces. Central notations of statistics, such as Information or Likelihood, can be identified in the algebraical structure of A2(P) and their corresponding notions in compositional data analysis, such as Aitchison distance or centered log ratio transform. In this way very elaborated aspects of mathematical statistics can be understood easily in the light of a simple vector space structure and of compositional data analysis. E.g. combination of statistical information such as Bayesian updating, combination of likelihood and robust M-estimation functions are simple additions/ perturbations in A2(Pprior). Weighting observations corresponds to a weighted addition of the corresponding evidence. Likelihood based statistics for general exponential families turns out to have a particularly easy interpretation in terms of A2(P). Regular exponential families form finite dimensional linear subspaces of A2(P) and they correspond to finite dimensional subspaces formed by their posterior in the dual information space A2(Pprior). The Aitchison norm can identified with mean Fisher information. The closing constant itself is identified with a generalization of the cummulant function and shown to be Kullback Leiblers directed information. Fisher information is the local geometry of the manifold induced by the A2(P) derivative of the Kullback Leibler information and the space A2(P) can therefore be seen as the tangential geometry of statistical inference at the distribution P. The discussion of A2(P) valued random variables, such as estimation functions or likelihoods, give a further interpretation of Fisher information as the expected squared norm of evidence and a scale free understanding of unbiased reasoning

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper, we define a new scheme to develop and evaluate protection strategies for building reliable GMPLS networks. This is based on what we have called the network protection degree (NPD). The NPD consists of an a priori evaluation, the failure sensibility degree (FSD), which provides the failure probability, and an a posteriori evaluation, the failure impact degree (FID), which determines the impact on the network in case of failure, in terms of packet loss and recovery time. Having mathematical formulated these components, experimental results demonstrate the benefits of the utilization of the NPD, when used to enhance some current QoS routing algorithms in order to offer a certain degree of protection

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In networks with small buffers, such as optical packet switching based networks, the convolution approach is presented as one of the most accurate method used for the connection admission control. Admission control and resource management have been addressed in other works oriented to bursty traffic and ATM. This paper focuses on heterogeneous traffic in OPS based networks. Using heterogeneous traffic and bufferless networks the enhanced convolution approach is a good solution. However, both methods (CA and ECA) present a high computational cost for high number of connections. Two new mechanisms (UMCA and ISCA) based on Monte Carlo method are proposed to overcome this drawback. Simulation results show that our proposals achieve lower computational cost compared to enhanced convolution approach with an small stochastic error in the probability estimation

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la Enfermedad Coronaria (EC) existen factores genéticos, socioculturales, medioambientales y raciales adicionales a los factores de riesgo cardiovascular mayores que podrían influir en su presentación. Se desconoce el impacto de la raza en la severidad de la enfermedad coronaria en los pacientes extranjeros que son enviados a nuestro Servicio. Objetivos: Comparar la severidad de la EC multivaso en una población de pacientes de las Antillas y Nacionales, pareados por la escala Framingham. Metodología: Realizamos un estudio de corte transversal, comparando pacientes colombianos contra pacientes provenientes de las Antillas holandesas con similares factores de riesgo según escala de Framingham, catalogándolos por grupos de riesgo bajo, intermedio, alto y muy alto. Todos con EC severa multivaso documentada por angiografía coronaria desde enero del 2009 hasta Junio de 2011. Se excluyeron pacientes con antecedentes de intervención percutánea o quirúrgica previa. Resultados: Ingresaron 115 pacientes internacionales y 115 pacientes nacionales. La relación hombres/mujeres 3:1. La proporción de grupos de riesgo fue de bajo riesgo 2.5%, intermedio 15%, alto 19.3%, y muy alto 63.4%. El Syntax Score en pacientes nacionales fue 14.3+/-7.4 y en internacionales 22.2+/-10.5 p: 0.002. Conclusiones: En pacientes provenientes de las Antillas Holandesas, valorados en nuestra institución, se observó una mayor severidad de la enfermedad coronaria comparada con una población nacional con factores de riesgo similares. Estos hallazgos sugieren la influencia de la raza y factores genéticos en la severidad y extensión de la EC

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introducción: El glaucoma representa la tercera causa de ceguera a nivel mundial y un diagnóstico oportuno requiere evaluar la excavación del nervio óptico que está relacionada con el área del mismo. Existen reportes de áreas grandes (macrodiscos) que pueden ser protectoras, mientras otros las asocian a susceptibilidad para glaucoma. Objetivo: Establecer si existe asociación entre macrodisco y glaucoma en individuos estudiados con Tomografía Optica Coherente (OCT ) en la Fundación Oftalmológica Nacional. Métodos: Estudio transversal de asociación que incluyó 25 ojos con glaucoma primario de ángulo abierto y 74 ojos sanos. A cada individuo se realizó examen oftalmológico, campo visual computarizado y OCT de nervio óptico. Se compararon por grupos áreas de disco óptico y número de macrodiscos, definidos según Jonas como un área de la media más dos desviaciones estándar y según Adabache como área ≥3.03 mm2 quien evaluó población Mexicana. Resultados: El área promedio de disco óptico fue 2,78 y 2,80 mm2 glaucoma Vs. sanos. De acuerdo al criterio de Jonas, se observó un macrodisco en el grupo sanos y según criterio de Adabache se encontraron ocho y veinticinco macrodiscos glaucoma Vs. sanos. (OR=0,92 IC95%=0.35 – 2.43). Discusión: No hubo diferencia significativa (P=0.870) en el área de disco entre los dos grupos y el porcentaje de macrodiscos para los dos grupos fue similar, aunque el bajo número de éstos no permitió concluir en términos estadísticos sobre la presencia de macrodisco y glaucoma.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introducción: Los pacientes con lesiones térmicas presentan alteraciones fisiológicas complejas que hacen difícil la caracterización del estado ácido-base y así mismo alteraciones electrolíticas e hipoalbuminemia que pudieran estar relacionados con un peor pronóstico. Se ha estudiado la base déficit (BD) y el lactato, encontrando una gran divergencia en los resultados. Por lo anterior, el análisis físico-químico del estado ácido-base podría tener un rendimiento superior a los métodos tradicionales. Metodología: Se realizó el análisis de una serie de casos de 15 pacientes mayores de 15 años, con superficie corporal quemada mayor al 20% que ingresaron a una unidad de cuidado intensivo (UCI) de quemados, dentro de las siguientes 48 horas del trauma. Para el análisis se utilizaron tres métodos distintos: 1) método convencional basado en la teoría de Henderson-Hasselbalch, 2) anión-gap (AG) y anión-gap corregido por albúmina, 3) análisis físico-químico del estado ácido-base según la teoría de Stewart modificado por Fencl y Figge. Resultados: Por el método de Henderson-Hasselbalch, 8 pacientes cursaron con acidosis metabólica, 4 pacientes con una BD leve, 5 pacientes con una BD moderada y 5 pacientes con una BD severa. El AG resultó menor a 16 mmol/dl en 10 pacientes, pero al corregirlo por albumina sólo 2 pacientes cursaron con AG normal. La diferencia de iones fuertes (DIF) se encontraba anormalmente elevada en la totalidad de los pacientes. Conclusión:El análisis del AG corregido por albumina y el análisis físico-químico del estado ácido-base, podrían tener mayor rendimiento al identificar las alteraciones metabólicas de estos pacientes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente proyecto, se planteó una necesidad clara por satisfacer. Las organizaciones hoy en día, necesitan nuevas herramientas que permitan predecir y minimizar riesgos de mercado, con el fin de mejorar su desempeño, su competitividad, su salud financiera y sobre todo, ser más perdurables en ambientes caóticos e inestables. Se planteó un objetivo claro a cumplir, cómo pueden las empresas mejorar su relación con los consumidores y sus comunidades, con el fin de, identificar factores que impacten positivamente la salud financiera de las organizaciones. Es pertinente, el estudio de la salud financiera en empresas de mercados emergentes y los impactos en la implementación de diferentes estrategias comunitarias para establecer métodos que minimicen los riesgos y mejoren el desempeño empresarial. Para cumplir la propuesta planteada, fue necesario abarcar diferentes fuentes de información relacionadas a temas financieros y de mercadeo. Se buscó, tomar ejemplos, teorías y modelos ya implementados en estudios similares y con objetivos en común, relacionados a: uso de indicadores financieros, valoración corporativa, valoración de los estados financieros, diagnóstico de la salud financiera, el uso de estrategias de mercadeo relacional, la fidelización de clientes y el uso de estrategias comunitarias. Además, fue necesaria la búsqueda de empresas en los mercados emergentes de Brasil y Colombia, que representan el tipo de muestra deseada para desarrollar el estudio y sus objetivos. A dicha empresa, se le realizará una serie de estudios para poder satisfacer las necesidades planteadas en el presente proyecto. Por medio de dichos estudios, se pretende identificar relaciones en el uso de estrategias comunitarias y sus impactos en la salud financiera de las organizaciones. Es importante, identificar factores de riesgo y de protección para prevenir impactos negativos o potencializar aquellos que beneficien a las empresas. Con lo anterior, será posible obtener pruebas o herramientas que mejoren los procesos de toma de decisiones de alta dirección, la formulación de directrices en estrategia corporativa y definición de ventajas competitivas de la organización. Se pretende, brindar una aproximación a nuevos conocimientos y enfoques de estudios, expuestos en el proyecto, para mejorar la ciencia de la gestión, el desempeño y la perdurabilidad empresarial en mercados emergentes. El proyecto, tomó como fuente de estudio, el banco Brasileño Itau Unibanco Holding S.A. que representa de la mejor forma, el tipo de muestra necesaria para poder cumplir con los objetivos planteados. El banco, tienen presencia en la región bastante importante y sigue con metas de expansión e internacionalización. Además de eso, es considerado el banco privado más grande de Brasil, el cuarto mayor de Chile y la quinta institución financiera de Colombia. Ha sido ganador, de varios galardones y reconocimiento por sus buenas practicas, su enfoque hacia la sostenibilidad, la sociedad, el buen ambiente y los derechos. El proyecto, culminó demostrando que efectivamente el uso de estrategias comunitarias tiene un impacto importante en la imagen corporativa, la reputación y como consecuencia, en la estabilidad financiera. Se evidenció, también, el desempeño del banco Itau Unibanco Holding del año 2013, donde, se aplicaron diferentes estudios, indicadores y demás, que demostraron un buen resultado, y por ende, una fuerte posición y salud financiera. Adicionalmente, se mostraron diferentes tipos de estrategias que el banco usa hoy en día dirigidas a las comunidades, evidenciando ejemplos en Brasil y en Chile y describiendo los proyectos, los programas o las estrategias que el banco usa para aportar a la comunidad, ser parte de la sociedad, mejorar su imagen, aumentar su reputación, profundizar en la caracterización de las necesidades de sus consumidores y revertir todo lo anterior en mejores soluciones, mejores productos y mejores formas de relacionamiento. Dicha integración en el ambiente y en el entorno de sus consumidores impacta de buena manera los resultados financieros y permite que la posición en el mercado se mantenga fuerte y firme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La incidencia y prevalencia de enfermedad y riesgo cardiovascular (RCV) se incrementan con los años, como consecuencia de la falta de control en los factores de riesgo modificables, por ejemplo el sedentarismo, principalmente observado en trabajadores de oficina. El objetivo del presente trabajo fue identificar los factores asociados con el incremento del RCV en trabajadores de una empresa del estado en Bogotá, Colombia en el año 2013, a través de un estudio descriptivo de corte transversal a partir de una base de datos suministrada por la empresa con información de 272 trabajadores. Se incluyeron variables sociodemográficas, perfil ocupacional, factores de riesgo, historia clínica y medidas metabólicas. Los datos fueron estudiados a través de análisis univariado, bivariado y multivariado de regresión logística binaria. El 100% de los empleados tiene un contrato a término indefinido, siendo el género femenino más predominante. Se identificó que el RCV presente en el 11.8% de la población se asocia principalmente con la presencia de diabetes mellitus tipo 2 (ORA 9.97; IC95% 2.14-14.96, p=0.019), la alteración en el índice de masa corporal (ORA 5.67; IC95% 4.48-9.19, p=0.026), la hipertensión arterial sistólica (ORA 3.44; IC95% 2.21-4.01, p=0.037. Además hubo una relación inversa respecto al puntaje de la escala Framingham, donde menores puntajes se asociaron a menor RCV (ORA 0.04; IC95% 0.02-0.71, p=0.029), una vez se ajustó el modelo por edad, género y antigüedad en la empresa. No se encontró relación estadísticamente significativa entre el RCV, el cargo y la antigüedad laboral. Se concluye que en esta población trabajadora, independientemente de la edad, tiempo de antigüedad en la empresa y el género, los factores de riesgo clásicos para RCV están presentes y por lo tanto se deben iniciar medidas de promoción y prevención en aras de disminuir la probabilidad que el RCV encontrado se traduzca en un evento cardiovascular y de ésta manera optimizar la productividad en esta empresa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introducción: La Parálisis Cerebral (PC) es la enfermedad neurológica más incapacitante en niños, su historia natural tiende al deterioro motor y funcional. Con este estudio se busca establecer sí las cirugías múltiples de miembros inferiores, en un tiempo quirúrgico, mantienen el nivel motor y funcional. Material y Método: Estudio analítico de cohortes. Se compara un grupo de pacientes sometidos a cirugías múltiples contra un grupo de pacientes no operados, en el Instituto de Ortopedia Infantil Roosevelt. Se evaluaron los pacientes con dos Laboratorios para el Análisis del Movimiento (LAM) y se midieron los desenlaces mediante el cambio en la puntuación del perfil de marcha (GPS) y el nivel funcional motor grueso (GMFCS). Resultados: 109 pacientes cumplieron con los criterios de selección, 67 pacientes fueron sometidos a cirugía y 42 pacientes no. Los pacientes operados mejoraron el GPS promedio (diferencia -1,94; p=0,002) comparado con los pacientes no operados (diferencia 1,74; p=0,001), indicando una mejoría significativa de la cinemática de la marcha. En un modelo de regresión logística predictivo, el paciente que es operado tiene una probabilidad del 78% de mantener su patrón de marcha, mientras que sí no se opera su probabilidad disminuye al 37%. El nivel funcional motor GMFCS no mostró cambios significativos entre los grupos. Discusión: Las cirugías múltiples de miembros inferiores mantienen de manera significativa el patrón de marcha en pacientes con PC. Se destaca el seguimiento de los pacientes mediante el LAM y se sugiere el uso del GPS para valorar resultados en este tipo de pacientes.