854 resultados para mean-variance frontiers
Resumo:
In this paper, a novel fast method for modeling mammograms by deterministic fractal coding approach to detect the presence of microcalcifications, which are early signs of breast cancer, is presented. The modeled mammogram obtained using fractal encoding method is visually similar to the original image containing microcalcifications, and therefore, when it is taken out from the original mammogram, the presence of microcalcifications can be enhanced. The limitation of fractal image modeling is the tremendous time required for encoding. In the present work, instead of searching for a matching domain in the entire domain pool of the image, three methods based on mean and variance, dynamic range of the image blocks, and mass center features are used. This reduced the encoding time by a factor of 3, 89, and 13, respectively, in the three methods with respect to the conventional fractal image coding method with quad tree partitioning. The mammograms obtained from The Mammographic Image Analysis Society database (ground truth available) gave a total detection score of 87.6%, 87.6%, 90.5%, and 87.6%, for the conventional and the proposed three methods, respectively.
Resumo:
Support Vector Machines Regression (SVMR) is a regression technique which has been recently introduced by V. Vapnik and his collaborators (Vapnik, 1995; Vapnik, Golowich and Smola, 1996). In SVMR the goodness of fit is measured not by the usual quadratic loss function (the mean square error), but by a different loss function called Vapnik"s $epsilon$- insensitive loss function, which is similar to the "robust" loss functions introduced by Huber (Huber, 1981). The quadratic loss function is well justified under the assumption of Gaussian additive noise. However, the noise model underlying the choice of Vapnik's loss function is less clear. In this paper the use of Vapnik's loss function is shown to be equivalent to a model of additive and Gaussian noise, where the variance and mean of the Gaussian are random variables. The probability distributions for the variance and mean will be stated explicitly. While this work is presented in the framework of SVMR, it can be extended to justify non-quadratic loss functions in any Maximum Likelihood or Maximum A Posteriori approach. It applies not only to Vapnik's loss function, but to a much broader class of loss functions.
Resumo:
Kriging is an interpolation technique whose optimality criteria are based on normality assumptions either for observed or for transformed data. This is the case of normal, lognormal and multigaussian kriging. When kriging is applied to transformed scores, optimality of obtained estimators becomes a cumbersome concept: back-transformed optimal interpolations in transformed scores are not optimal in the original sample space, and vice-versa. This lack of compatible criteria of optimality induces a variety of problems in both point and block estimates. For instance, lognormal kriging, widely used to interpolate positive variables, has no straightforward way to build consistent and optimal confidence intervals for estimates. These problems are ultimately linked to the assumed space structure of the data support: for instance, positive values, when modelled with lognormal distributions, are assumed to be embedded in the whole real space, with the usual real space structure and Lebesgue measure
Resumo:
Hydrogeological research usually includes some statistical studies devised to elucidate mean background state, characterise relationships among different hydrochemical parameters, and show the influence of human activities. These goals are achieved either by means of a statistical approach or by mixing models between end-members. Compositional data analysis has proved to be effective with the first approach, but there is no commonly accepted solution to the end-member problem in a compositional framework. We present here a possible solution based on factor analysis of compositions illustrated with a case study. We find two factors on the compositional bi-plot fitting two non-centered orthogonal axes to the most representative variables. Each one of these axes defines a subcomposition, grouping those variables that lay nearest to it. With each subcomposition a log-contrast is computed and rewritten as an equilibrium equation. These two factors can be interpreted as the isometric log-ratio coordinates (ilr) of three hidden components, that can be plotted in a ternary diagram. These hidden components might be interpreted as end-members. We have analysed 14 molarities in 31 sampling stations all along the Llobregat River and its tributaries, with a monthly measure during two years. We have obtained a bi-plot with a 57% of explained total variance, from which we have extracted two factors: factor G, reflecting geological background enhanced by potash mining; and factor A, essentially controlled by urban and/or farming wastewater. Graphical representation of these two factors allows us to identify three extreme samples, corresponding to pristine waters, potash mining influence and urban sewage influence. To confirm this, we have available analysis of diffused and widespread point sources identified in the area: springs, potash mining lixiviates, sewage, and fertilisers. Each one of these sources shows a clear link with one of the extreme samples, except fertilisers due to the heterogeneity of their composition. This approach is a useful tool to distinguish end-members, and characterise them, an issue generally difficult to solve. It is worth note that the end-member composition cannot be fully estimated but only characterised through log-ratio relationships among components. Moreover, the influence of each endmember in a given sample must be evaluated in relative terms of the other samples. These limitations are intrinsic to the relative nature of compositional data
Resumo:
There is almost not a case in exploration geology, where the studied data doesn’t includes below detection limits and/or zero values, and since most of the geological data responds to lognormal distributions, these “zero data” represent a mathematical challenge for the interpretation. We need to start by recognizing that there are zero values in geology. For example the amount of quartz in a foyaite (nepheline syenite) is zero, since quartz cannot co-exists with nepheline. Another common essential zero is a North azimuth, however we can always change that zero for the value of 360°. These are known as “Essential zeros”, but what can we do with “Rounded zeros” that are the result of below the detection limit of the equipment? Amalgamation, e.g. adding Na2O and K2O, as total alkalis is a solution, but sometimes we need to differentiate between a sodic and a potassic alteration. Pre-classification into groups requires a good knowledge of the distribution of the data and the geochemical characteristics of the groups which is not always available. Considering the zero values equal to the limit of detection of the used equipment will generate spurious distributions, especially in ternary diagrams. Same situation will occur if we replace the zero values by a small amount using non-parametric or parametric techniques (imputation). The method that we are proposing takes into consideration the well known relationships between some elements. For example, in copper porphyry deposits, there is always a good direct correlation between the copper values and the molybdenum ones, but while copper will always be above the limit of detection, many of the molybdenum values will be “rounded zeros”. So, we will take the lower quartile of the real molybdenum values and establish a regression equation with copper, and then we will estimate the “rounded” zero values of molybdenum by their corresponding copper values. The method could be applied to any type of data, provided we establish first their correlation dependency. One of the main advantages of this method is that we do not obtain a fixed value for the “rounded zeros”, but one that depends on the value of the other variable. Key words: compositional data analysis, treatment of zeros, essential zeros, rounded zeros, correlation dependency
Resumo:
The preceding two editions of CoDaWork included talks on the possible consideration of densities as infinite compositions: Egozcue and D´ıaz-Barrero (2003) extended the Euclidean structure of the simplex to a Hilbert space structure of the set of densities within a bounded interval, and van den Boogaart (2005) generalized this to the set of densities bounded by an arbitrary reference density. From the many variations of the Hilbert structures available, we work with three cases. For bounded variables, a basis derived from Legendre polynomials is used. For variables with a lower bound, we standardize them with respect to an exponential distribution and express their densities as coordinates in a basis derived from Laguerre polynomials. Finally, for unbounded variables, a normal distribution is used as reference, and coordinates are obtained with respect to a Hermite-polynomials-based basis. To get the coordinates, several approaches can be considered. A numerical accuracy problem occurs if one estimates the coordinates directly by using discretized scalar products. Thus we propose to use a weighted linear regression approach, where all k- order polynomials are used as predictand variables and weights are proportional to the reference density. Finally, for the case of 2-order Hermite polinomials (normal reference) and 1-order Laguerre polinomials (exponential), one can also derive the coordinates from their relationships to the classical mean and variance. Apart of these theoretical issues, this contribution focuses on the application of this theory to two main problems in sedimentary geology: the comparison of several grain size distributions, and the comparison among different rocks of the empirical distribution of a property measured on a batch of individual grains from the same rock or sediment, like their composition
Resumo:
Cuando se habla de los límites y fronteras de Europa, actualmente no están definidos en su totalidad, resultando problemático en la subregión del este, donde se encuentran Estados como Ucrania, Bielorrusia, Turquía y otros más. La delgada línea que divide a Europa de Asia aún es confusa, por lo cual delimitar el concepto de europeidad implica contemplar más variables que lo geográfico y cultural. De esta manera, la incertidumbre que existe está relacionada con los atributos que tiene la europeidad, y como los ciudadanos se identifican con ella. La europeidad antes que un conjunto de valores atribuible a los ciudadanos o una herencia cultural común, es un concepto difuso, efímero y esquivo para algunos autores. La trascendencia de este concepto se hace manifiesta en el artículo 49 del Tratado de la Unión Europea donde se estipulan las condiciones para ser miembro de la Unión Europea (UE). Aunque ser miembro de la UE no es lo mismo que ser europeo hasta este momento es la forma más aceptable para denominar a un Estado como europeo.
Resumo:
Se realizó estudio cuasi experimental con el fin de comparar el efecto sobre la carga física de una intervención tecnológica y en la organización del trabajo en trabajadores en el cargo de horneros en la tarea de extracción de coque en Colombia. Se midió la carga física mediante frecuencia cardiaca e índice de costo cardiaco relativo en una población de trabajadores expuestos (37) y no expuestos (66) a una intervención tecnológica. La monitorización de la frecuencia cardiaca se realizó con 7 pulsímetros Polar RS 800cx debidamente calibrados. Las variables numéricas se describieron con base en la media aritmética, su desviación estándar, y el rango. Para evaluar la diferencia entre las medias de los grupos con respecto a la frecuencia cardiaca en reposo, media, máxima, índice de costo cardiaco relativo, gasto energético de trabajo se aplicó análisis de varianza de una vía. Se estableció a priori un nivel de significación estadística α = 0,05. Se encontraron diferencias estadísticamente significativas en el comportamiento de la frecuencia cardiaca media, frecuencia cardiaca máxima e índice de costo cardiaco relativo, entre los grupos de estudio. Se concluyó que este estudio valida la frecuencia cardiaca como una variable sensible para la medición del riesgo por carga física y a su utilidad en la evaluación intervenciones ergonómica. El estudio demostró que la intervención ergonómica logró controlar la carga física con una disminución significativa la frecuencia cardiaca, en el grupo de intervención.
Resumo:
Esta tesis está dividida en dos partes: en la primera parte se presentan y estudian los procesos telegráficos, los procesos de Poisson con compensador telegráfico y los procesos telegráficos con saltos. El estudio presentado en esta primera parte incluye el cálculo de las distribuciones de cada proceso, las medias y varianzas, así como las funciones generadoras de momentos entre otras propiedades. Utilizando estas propiedades en la segunda parte se estudian los modelos de valoración de opciones basados en procesos telegráficos con saltos. En esta parte se da una descripción de cómo calcular las medidas neutrales al riesgo, se encuentra la condición de no arbitraje en este tipo de modelos y por último se calcula el precio de las opciones Europeas de compra y venta.
Uso del Sildenafil en hipertensión pulmonar del recién nacido. Revisión sistemática de la literatura
Resumo:
Antecedentes El desarrollo de la hipertensión pulmonar en el recién nacido es una condición grave que supone un peligro para su vida. Se ha propuesto el uso del sildenafil como tratamiento para esta enfermedad, sin embargo no ha sido evaluada su eficacia a través de una revisión sistemática. Objetivos Determinar el efecto del sildenafil en el manejo de recién nacidos con diagnóstico de hipertensión pulmonar a través de la realización de una revisión sistemática de la literatura. Metodología Se planteó la realización de una revisión sistemática de la literatura. La búsqueda fue realizada a través de las bases de datos: Pubmed, Embase, LiLaCS y Cochrane library. Se incluyeron ensayos clínicos controlados y estudios de cohortes publicados en los idiomas inglés y español. Las variables cualitativas fueron estimadas como riesgos relativos o odds ratios con sus IC95%, las variables cualitativas como diferencias de promedios con sus IC95%. Resultados Se incluyeron 4 estudios en la revisión sistemática. Dos estudios compararon el sildenafil contra el placebo. El uso del sildenafil se relacionó con una menor mortalidad y mejoría en los parámetros ventilatorios. Conclusión: Es aconsejable el uso del sildenafil en el manejo de la hipertensión pulmonar en niños.
Resumo:
La presente investigación analiza las estrategias populistas empleadas por los candidatos para las presidenciales colombianas de 2014. Se asume el populismo como discurso desde los planteamientos de Ernesto Laclau, considerando que el populismo actúa en forma de discurso movilizador, cuya lógica implica la construcción de una perspectiva antagónica de la realidad, la cual identifica positivamente a las mayorías frente un enemigo que encarna valores y prácticas negativas. Las estrategias populistas constituyen el medio para proponer una visión dicotómica de la realidad y una demanda hegemónica, donde el candidato aparece como parte positiva del antagonismo y constituye la solución de la demanda más importante en términos sociales. La tesis se concentra en responder a la pregunta: ¿Cómo se emplearon las estrategias populistas en las elecciones presidenciales de 2014? Para esto se construyó un índice de estrategias populistas en el cual se ubicó el discurso de cada candidato, donde un antagonismo adecuadamente estructurado y una demanda hegemónica representativa para la sociedad, representa beneficios electorales para el candidato. Se concluye que una adecuada articulación discursiva entre frontera antagónica (receptor positivo y contraparte negativa) y demanda hegemónica, puede significar para el candidato una mayor probabilidad de éxito, en la medida que los ciudadanos interioricen su discurso y se adhieran a él.
Resumo:
INTRODUCCIÓN: El 80% de los niños y adolescentes con trastornos del espectro autista (TEA) presenta algún trastorno del sueño, en cuya génesis al parecer intervienen alteraciones en la regulación de la melatonina. El objetivo de este metaanálisis fue determinar la eficacia y seguridad de la melatonina para el manejo de ciertos trastornos del sueño en niños con TEA. MÉTODOS: Tres revisores extrajeron los datos relevantes de los ensayos clínicos aleatorizados doble ciego de alta calidad publicados en bases de datos primarias, de ensayos clínicos, de revisiones sistemáticas y de literatura gris; además se realizó búsqueda en bola de nieve. Se analizaron los datos con RevMan 5.3. Se realizó un análisis del inverso de la varianza por un modelo de efectos aleatorios para las diferencias de medias de los desenlaces propuestos: duración del tiempo total, latencia de sueño y número de despertares nocturnos. Se evaluó la heterogeneidad interestudios con el parámetro I2 RESULTADOS: La búsqueda inicial arrojó 355 resultados, de los cuales tres cumplieron los criterios de selección. La melatonina resultó ser un medicamento seguro y eficaz para aumentar la duración total del sueño y disminuir la latencia de sueño en niños y adolescentes con TEA; hasta el momento la evidencia sobre el número de despertares nocturnos no es estadísticamente significativa. DISCUSIÓN: A la luz de la evidencia disponible, la melatonina es una elección segura y eficaz para el manejo de ciertos problemas del sueño en niños y adolescentes con TEA. Es necesario realizar estudios con mayores tamaños muestrales y comparados con otros medicamentos disponibles en el mercado.
Resumo:
This paper investigates the effect of varying presentation (click) rates in variance ratios for auditory brainstem responses (ABR).