863 resultados para Score metric
Resumo:
This paper examines objective measures of speech production, specifically vowels. The relationship between the listener's perception of sections of the vowels with their perception of the entire vocalic utterance was examined.
Resumo:
This paper discusses a study to validate the metric developed in the Geers and Moog Cochlear Implant Study at CID to measure the speech production of hearing impaired children.
Resumo:
El presente estudio busca enfatizar la labor previa a la construcción de cualquier modelo de gestión de riesgo crediticio basado en un sistema tipo scoring. Esta importante fase inicial involucra la identificación de las fuentes de información, la verificación de la cantidad y calidad de los datos, la determinación y tipificación de variables cualitativas, cuantitativas, demográficas, así como la verificación y cuantificación del poder discriminante de dichas variables respecto el objetivo planteado. Con este fin se profundiza en el análisis estadístico a nivel descriptivo, en forma individual y conjunta de los datos, además de bosquejar los pasos esenciales en la arquitectura de un modelo credit score de gestión de riesgo crediticio.
Resumo:
El Instituto de Seguridad Social de las Fuerzas Armadas ISSFA, dentro de su misión de servicio social otorga a sus afiliados, militares activos y pasivos, sus dependientes y derechohabientes, diferentes tipos de prestaciones y servicios, dentro de los cuales se encuentran los préstamos quirografarios e hipotecarios, los mismos que, a pesar de contar con una eficiente administración por procesos y el retorno a través del descuento por rol de pagos, mantiene un cierto porcentaje de cartera vencida, debido a la inadecuada calificación del sujeto de crédito, ocasionando que por definición no se puedan trasladar las pérdidas generadas del incumplimiento de pago y sean absorbidas consecuentemente por el patrimonio de la Institución. El objetivo de este trabajo es lograr por tanto, que el ISSFA, a través de la implementación de un modelo de Score de Calificación de Cartera para sus afiliados, logre en primer lugar, identificar las variables y factores de riesgo de crédito que alteran el normal funcionamiento del negocio, a través de un análisis estadístico minucioso de la base de datos institucional, con el fin de que se tomen las medidas necesarias para la identificación, medición, mitigación y control del riesgo crediticio, y, en segundo lugar, ponderar las diferentes características de un prestatario, un prestamista y un préstamo, a fin de minimizar las pérdidas esperadas y dar cumplimiento a lo establecido y normado por la Superintendencia de Bancos y Seguros como su entidad de control.
Resumo:
El presente estudio busca analizar y preparar estadísticamente un conjunto de variables para el diseño de un modelo de aprobación CREDIT SCORE de cartera de consumo, tipo probabilístico, que apoye al oficial de crédito en la toma de la decisión antes de conceder o no un crédito de consumo; para que la decisión no sea subjetiva sino objetiva, medible (probabilística) apoyada en una ecuación que contenga sustento teórico y empírico dado por la base de datos histórica de la Cooperativa de ahorro y crédito Maquita Cushunchic. En la presente tesis partimos con fundamentación teórica que sustenta nuestro trabajo de investigación. En el segundo capítulo se realiza un diagnostico situacional de la empresa, donde se define la visión, la misión y definición de temas estratégicos. En el tercer capítulo realizaremos un análisis y preparación estadística de variables para el diseño de un modelo de aprobación CREDIT SCORE de cartera de consumo, esta fase involucra “la identificación de las fuentes de información, la verificación de cantidad y calidad de los datos, la determinación y tipificación de variables cualitativas, cuantitativas y demográficas, así como la verificación y cuantificación del poder discriminante de dichas variables respecto al objetivo planteado” 1, todo esto se lo realiza con el objetivo de aplicar un concepto de sistemas de calificación de crédito que se define de la siguiente manera: “la calificación supone que el desempeño de los prestamos futuros con características dadas, será parecido al desempeño de los prestamos pasados con características similares"2. Lo que se busca finalmente es que el modelo sea una herramienta de apoyo empírico que ayude a la toma de decisiones antes de conceder o no un credito. Finalmente termina este trabajo formulando conclusiones y recomendaciones.
Resumo:
El mercado automotriz en el Ecuador es uno de los sectores que dinamiza la economía; a través de la producción e importación de vehículos y la comercialización de estos. El crecimiento de este sector en los últimos años ha sido constante y sostenido, al igual que el incremento de financiamientos otorgados a los consumidores o sujetos de crédito para la compra de un vehículo. El presente trabajo tiene como propósito el desarrollo de un score de crédito para el financiamiento automotriz que permita identificar a los buenos y malos solicitantes y así decidir entre otorgar o no el crédito. Para ello se han desarrollado cuatro capítulos. En el primer capítulo se realiza una introducción sobre el mercado automotriz su producción, niveles de importación, cadena de distribución, y otros; además de la composición del parque automotor y problemas de movilidad y el comportamiento de compra y los niveles de crédito automotriz. En el segundo capítulo se trata sobre la base de datos de las organizaciones y los tipos de variables que pueden contener y se explica los tipos de modelos de regresiones que se pueden realizar. En el tercer capítulo se define al modelo de score de crédito y los pasos a seguir para la construcción de este. En el cuarto capítulo se desarrollan todos los pasos para la construcción del score de crédito y en quinto capítulo se encuentran las conclusiones y recomendaciones del presente trabajo.
Resumo:
Across Europe, elevated phosphorus (P) concentrations in lowland rivers have made them particularly susceptible to eutrophication. This is compounded in southern and central UK by increasing pressures on water resources, which may be further enhanced by the potential effects of climate change. The EU Water Framework Directive requires an integrated approach to water resources management at the catchment scale and highlights the need for modelling tools that can distinguish relative contributions from multiple nutrient sources and are consistent with the information content of the available data. Two such models are introduced and evaluated within a stochastic framework using daily flow and total phosphorus concentrations recorded in a clay catchment typical of many areas of the lowland UK. Both models disaggregate empirical annual load estimates, derived from land use data, as a function of surface/near surface runoff, generated using a simple conceptual rainfall-runoff model. Estimates of the daily load from agricultural land, together with those from baseflow and point sources, feed into an in-stream routing algorithm. The first model assumes constant concentrations in runoff via surface/near surface pathways and incorporates an additional P store in the river-bed sediments, depleted above a critical discharge, to explicitly simulate resuspension. The second model, which is simpler, simulates P concentrations as a function of surface/near surface runoff, thus emphasising the influence of non-point source loads during flow peaks and mixing of baseflow and point sources during low flows. The temporal consistency of parameter estimates and thus the suitability of each approach is assessed dynamically following a new approach based on Monte-Carlo analysis. (c) 2004 Elsevier B.V. All rights reserved.
Resumo:
We propose a novel method for scoring the accuracy of protein binding site predictions – the Binding-site Distance Test (BDT) score. Recently, the Matthews Correlation Coefficient (MCC) has been used to evaluate binding site predictions, both by developers of new methods and by the assessors for the community wide prediction experiment – CASP8. Whilst being a rigorous scoring method, the MCC does not take into account the actual 3D location of the predicted residues from the observed binding site. Thus, an incorrectly predicted site that is nevertheless close to the observed binding site will obtain an identical score to the same number of nonbinding residues predicted at random. The MCC is somewhat affected by the subjectivity of determining observed binding residues and the ambiguity of choosing distance cutoffs. By contrast the BDT method produces continuous scores ranging between 0 and 1, relating to the distance between the predicted and observed residues. Residues predicted close to the binding site will score higher than those more distant, providing a better reflection of the true accuracy of predictions. The CASP8 function predictions were evaluated using both the MCC and BDT methods and the scores were compared. The BDT was found to strongly correlate with the MCC scores whilst also being less susceptible to the subjectivity of defining binding residues. We therefore suggest that this new simple score is a potentially more robust method for future evaluations of protein-ligand binding site predictions.
The sequential analysis of repeated binary responses: a score test for the case of three time points
Resumo:
In this paper a robust method is developed for the analysis of data consisting of repeated binary observations taken at up to three fixed time points on each subject. The primary objective is to compare outcomes at the last time point, using earlier observations to predict this for subjects with incomplete records. A score test is derived. The method is developed for application to sequential clinical trials, as at interim analyses there will be many incomplete records occurring in non-informative patterns. Motivation for the methodology comes from experience with clinical trials in stroke and head injury, and data from one such trial is used to illustrate the approach. Extensions to more than three time points and to allow for stratification are discussed. Copyright © 2005 John Wiley & Sons, Ltd.
Resumo:
A score test is developed for binary clinical trial data, which incorporates patient non-compliance while respecting randomization. It is assumed in this paper that compliance is all-or-nothing, in the sense that a patient either accepts all of the treatment assigned as specified in the protocol, or none of it. Direct analytic comparisons of the adjusted test statistic for both the score test and the likelihood ratio test are made with the corresponding test statistics that adhere to the intention-to-treat principle. It is shown that no gain in power is possible over the intention-to-treat analysis, by adjusting for patient non-compliance. Sample size formulae are derived and simulation studies are used to demonstrate that the sample size approximation holds. Copyright © 2003 John Wiley & Sons, Ltd.
Resumo:
This paper presents an efficient construction algorithm for obtaining sparse kernel density estimates based on a regression approach that directly optimizes model generalization capability. Computational efficiency of the density construction is ensured using an orthogonal forward regression, and the algorithm incrementally minimizes the leave-one-out test score. A local regularization method is incorporated naturally into the density construction process to further enforce sparsity. An additional advantage of the proposed algorithm is that it is fully automatic and the user is not required to specify any criterion to terminate the density construction procedure. This is in contrast to an existing state-of-art kernel density estimation method using the support vector machine (SVM), where the user is required to specify some critical algorithm parameter. Several examples are included to demonstrate the ability of the proposed algorithm to effectively construct a very sparse kernel density estimate with comparable accuracy to that of the full sample optimized Parzen window density estimate. Our experimental results also demonstrate that the proposed algorithm compares favorably with the SVM method, in terms of both test accuracy and sparsity, for constructing kernel density estimates.