922 resultados para Informative Censoring


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sizes and power of selected two-sample tests of the equality of survival distributions are compared by simulation for small samples from unequally, randomly-censored exponential distributions. The tests investigated include parametric tests (F, Score, Likelihood, Asymptotic), logrank tests (Mantel, Peto-Peto), and Wilcoxon-Type tests (Gehan, Prentice). Equal sized samples, n = 18, 16, 32 with 1000 (size) and 500 (power) simulation trials, are compared for 16 combinations of the censoring proportions 0%, 20%, 40%, and 60%. For n = 8 and 16, the Asymptotic, Peto-Peto, and Wilcoxon tests perform at nominal 5% size expectations, but the F, Score and Mantel tests exceeded 5% size confidence limits for 1/3 of the censoring combinations. For n = 32, all tests showed proper size, with the Peto-Peto test most conservative in the presence of unequal censoring. Powers of all tests are compared for exponential hazard ratios of 1.4 and 2.0. There is little difference in power characteristics of the tests within the classes of tests considered. The Mantel test showed 90% to 95% power efficiency relative to parametric tests. Wilcoxon-type tests have the lowest relative power but are robust to differential censoring patterns. A modified Peto-Peto test shows power comparable to the Mantel test. For n = 32, a specific Weibull-exponential comparison of crossing survival curves suggests that the relative powers of logrank and Wilcoxon-type tests are dependent on the scale parameter of the Weibull distribution. Wilcoxon-type tests appear more powerful than logrank tests in the case of late-crossing and less powerful for early-crossing survival curves. Guidelines for the appropriate selection of two-sample tests are given. ^

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Obama administration's recurring policy emphasis on high-performing charter schools begs the obvious question: how do you identify a high-performing charter school? That is a crucially important policy question because any evaluation strategy that incorrectly identifies charter school performance could have negative effects on the economically and/or academically disadvantaged students who frequently attend charter schools. If low-performing schools are mislabeled and allowed to persist or encouraged to expand, then students may be harmed directly. If high-performing schools are driven from the market by misinformation, then students will lose access to programs and services that can make a difference in their lives. Most of the scholarly analysis to date has focused on comparing the performance of students in charter schools to that of similar students in traditional public schools (TPS). By design, that research measures charter school performance only in relative terms. Charter schools that outperform similarly situated, but low performing, TPSs have positive effects, even if the charter schools are mediocre in an absolute sense. This analysis describes strategies for identifying high-performing charter schools by comparing charter schools with one another. We begin by describing salient characteristics of Texas charter schools. We follow that discussion with a look at how other researchers across the country have compared charter school effectiveness with TPS effectiveness. We then present several metrics that can be used to identify high-performing charter schools. Those metrics are not mutually exclusive—one could easily justify using multiple measures to evaluate school effectiveness—but they are also not equally informative. If the goal is to measure the contributions that schools are making to student knowledge and skills, then a value-added approach like the ones highlighted in this report is clearly superior to a levels-based approach like that taken under the current accountability system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study represents a secondary analysis of the merging of emergency room visits and daily ozone and PM2.5. Although the adverse health effects of ozone and fine particulate matter have been documented in the literature, evidence regarding the health risks of these two pollutants in Harris County, Texas, is limited. Harris County (Houston) has sufficiently unique characteristics that analysis of these relationships in this setting and with the ozone and industry issues in Houston is informative. The objective of this study was to investigate the association between the joint exposure to ozone and fine particulate matter, and emergency room diagnoses of chronic obstructive pulmonary disease and cardiovascular disease in Harris County, Texas, from 2004 to 2009, with zero and one day lags. ^ The study variables were daily emergency room visits for Harris County, Texas, from 2004 to 2009, temperature, relative humidity, east wind component, north wind component, ozone, and fine particulate matter. Information about each patient's age, race, and gender was also included. The two dichotomous outcomes were emergency room visits diagnoses for chronic obstructive pulmonary disease and cardiovascular disease. Estimates of ozone and PM2.5 were interpolated using kriging, in which estimates of the two pollutants were predicted from monitoring data for every case residence zip code for every day of the six years, over 3 million estimates (one of each pollutant for each case in the database). ^ Logistic regressions were conducted to estimate odds ratios of the two outcomes. Three analyses were conducted: one for all records, another for visits during the four months of April and September of 2005 and 2009, and a third one for visits from zip codes that are close to PM2.5 monitoring stations (east area of Harris County). The last two analyses were designed to investigate special temporal and spatial characteristics of the associations. ^ The dataset included all ER visits surveyed by Safety Net from 2004 to 2009, exceeding 3 million visits for all causes. There were 95,765 COPD and 96,596 CVD cases during this six year period. A 1-μg/m3 increase in PM2.5 on the same day was associated with a 1.0% increase in the odds of chronic obstructive pulmonary disease emergency room diagnoses, a 0.4% increase in the odds of cardiovascular disease emergency room diagnoses, and a 0.2% increase in the odds of cardiovascular disease emergency room diagnoses on the following day. A 1-ppb increase in ozone was associated with a 0.1% increase in the odds of chronic obstructive pulmonary disease emergency room diagnoses on the same day. These four percentages add up to 1.7% of ER visits. That is, over the period of six years, one unit increase for both ozone and PM2.5 (joint increase), resulted in about 55,286 (3,252,102 * 0.017) extra ER visits for CVD or COPD, or 9,214 extra ER visits per year. ^ After adjustment for age, race, gender, day of the week, temperature, relative humidity, east wind component, north wind component, and wind speed, there were statistically significant associations between emergency room chronic obstructive pulmonary disease diagnosis in Harris County, Texas, with joint exposure to ozone and fine particulate matter for the same day; and between emergency room cardiovascular disease diagnosis and exposure to PM2.5 of the same day and the previous day. ^ Despite the small association between the two air pollutants and the health outcomes, this study points to important findings. Namely, the need to identify reasons for the increase of CVD and COPD ER visits over the course of the project, the statistical association between humidity (or whatever other variables for which it may serve as a surrogate) and CVD and COPD cases, and the confirmatory finding that males and blacks have higher odds for the two outcomes, as consistent with other studies. ^ An important finding of this research suggests that the number and distribution of PM2.5 monitors in Harris County - although not evenly spaced geographically—are adequate to detect significant association between exposure and the two outcomes. In addition, this study points to other potential factors that contribute to the rising incidence rates of CVD and COPD ER visits in Harris County such as population increases, patient history, life style, and other pollutants. Finally, results of validation, using a subset of the data demonstrate the robustness of the models.^

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Radiomics is the high-throughput extraction and analysis of quantitative image features. For non-small cell lung cancer (NSCLC) patients, radiomics can be applied to standard of care computed tomography (CT) images to improve tumor diagnosis, staging, and response assessment. The first objective of this work was to show that CT image features extracted from pre-treatment NSCLC tumors could be used to predict tumor shrinkage in response to therapy. This is important since tumor shrinkage is an important cancer treatment endpoint that is correlated with probability of disease progression and overall survival. Accurate prediction of tumor shrinkage could also lead to individually customized treatment plans. To accomplish this objective, 64 stage NSCLC patients with similar treatments were all imaged using the same CT scanner and protocol. Quantitative image features were extracted and principal component regression with simulated annealing subset selection was used to predict shrinkage. Cross validation and permutation tests were used to validate the results. The optimal model gave a strong correlation between the observed and predicted shrinkages with . The second objective of this work was to identify sets of NSCLC CT image features that are reproducible, non-redundant, and informative across multiple machines. Feature sets with these qualities are needed for NSCLC radiomics models to be robust to machine variation and spurious correlation. To accomplish this objective, test-retest CT image pairs were obtained from 56 NSCLC patients imaged on three CT machines from two institutions. For each machine, quantitative image features with concordance correlation coefficient values greater than 0.90 were considered reproducible. Multi-machine reproducible feature sets were created by taking the intersection of individual machine reproducible feature sets. Redundant features were removed through hierarchical clustering. The findings showed that image feature reproducibility and redundancy depended on both the CT machine and the CT image type (average cine 4D-CT imaging vs. end-exhale cine 4D-CT imaging vs. helical inspiratory breath-hold 3D CT). For each image type, a set of cross-machine reproducible, non-redundant, and informative image features was identified. Compared to end-exhale 4D-CT and breath-hold 3D-CT, average 4D-CT derived image features showed superior multi-machine reproducibility and are the best candidates for clinical correlation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Maximizing data quality may be especially difficult in trauma-related clinical research. Strategies are needed to improve data quality and assess the impact of data quality on clinical predictive models. This study had two objectives. The first was to compare missing data between two multi-center trauma transfusion studies: a retrospective study (RS) using medical chart data with minimal data quality review and the PRospective Observational Multi-center Major Trauma Transfusion (PROMMTT) study with standardized quality assurance. The second objective was to assess the impact of missing data on clinical prediction algorithms by evaluating blood transfusion prediction models using PROMMTT data. RS (2005-06) and PROMMTT (2009-10) investigated trauma patients receiving ≥ 1 unit of red blood cells (RBC) from ten Level I trauma centers. Missing data were compared for 33 variables collected in both studies using mixed effects logistic regression (including random intercepts for study site). Massive transfusion (MT) patients received ≥ 10 RBC units within 24h of admission. Correct classification percentages for three MT prediction models were evaluated using complete case analysis and multiple imputation based on the multivariate normal distribution. A sensitivity analysis for missing data was conducted to estimate the upper and lower bounds of correct classification using assumptions about missing data under best and worst case scenarios. Most variables (17/33=52%) had <1% missing data in RS and PROMMTT. Of the remaining variables, 50% demonstrated less missingness in PROMMTT, 25% had less missingness in RS, and 25% were similar between studies. Missing percentages for MT prediction variables in PROMMTT ranged from 2.2% (heart rate) to 45% (respiratory rate). For variables missing >1%, study site was associated with missingness (all p≤0.021). Survival time predicted missingness for 50% of RS and 60% of PROMMTT variables. MT models complete case proportions ranged from 41% to 88%. Complete case analysis and multiple imputation demonstrated similar correct classification results. Sensitivity analysis upper-lower bound ranges for the three MT models were 59-63%, 36-46%, and 46-58%. Prospective collection of ten-fold more variables with data quality assurance reduced overall missing data. Study site and patient survival were associated with missingness, suggesting that data were not missing completely at random, and complete case analysis may lead to biased results. Evaluating clinical prediction model accuracy may be misleading in the presence of missing data, especially with many predictor variables. The proposed sensitivity analysis estimating correct classification under upper (best case scenario)/lower (worst case scenario) bounds may be more informative than multiple imputation, which provided results similar to complete case analysis.^

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The problem of analyzing data with updated measurements in the time-dependent proportional hazards model arises frequently in practice. One available option is to reduce the number of intervals (or updated measurements) to be included in the Cox regression model. We empirically investigated the bias of the estimator of the time-dependent covariate while varying the effect of failure rate, sample size, true values of the parameters and the number of intervals. We also evaluated how often a time-dependent covariate needs to be collected and assessed the effect of sample size and failure rate on the power of testing a time-dependent effect.^ A time-dependent proportional hazards model with two binary covariates was considered. The time axis was partitioned into k intervals. The baseline hazard was assumed to be 1 so that the failure times were exponentially distributed in the ith interval. A type II censoring model was adopted to characterize the failure rate. The factors of interest were sample size (500, 1000), type II censoring with failure rates of 0.05, 0.10, and 0.20, and three values for each of the non-time-dependent and time-dependent covariates (1/4,1/2,3/4).^ The mean of the bias of the estimator of the coefficient of the time-dependent covariate decreased as sample size and number of intervals increased whereas the mean of the bias increased as failure rate and true values of the covariates increased. The mean of the bias of the estimator of the coefficient was smallest when all of the updated measurements were used in the model compared with two models that used selected measurements of the time-dependent covariate. For the model that included all the measurements, the coverage rates of the estimator of the coefficient of the time-dependent covariate was in most cases 90% or more except when the failure rate was high (0.20). The power associated with testing a time-dependent effect was highest when all of the measurements of the time-dependent covariate were used. An example from the Systolic Hypertension in the Elderly Program Cooperative Research Group is presented. ^

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Siete variedades de vid empleadas en Argentina para la elaboración de vinos de alta gama fueron caracterizadas molecularmente a través del empleo de microsatélites. Seis de los 8 pares de cebadores usados amplificaron patrones de bandas reproducibles. El número de alelos detectados por locus varió entre 5 y 10, con un total de 42 alelos, registrándose desde 1 a 7 alelos únicos. El número de genotipos microsatélites encontrados para cada locus osciló entre 3 y 7, con un total de 28. Las variedades Tempranillo y Chenin mostraron 6 y 5 genotipos «únicos», respectivamente, con los 6 loci analizados. La heterocigosidad observada varió entre 42,9 y 100 %, mientras que la heterocigosidad esperada osciló entre 64,3 y 87,8 %. El locus más informativo fue VrZAG79 (con un contenido de información polimórfica de 84,9 % y un número de alelos efectivos de 8,17) mientras que el menos informativo fue VrZAG62. La probabilidad acumulada de obtener genotipos idénticos fue de 7,68 x 10-05 indicando que, mediante el uso combinado de estos 6 cebadores microsatélites se pueden discriminar todas las variedades ensayadas, con alto grado de certeza. El análisis de agrupamiento por el método UPGMA separó claramente las variedades francesas (Merlot, Pinot Noir y Cabernet Sauvignon) y Syrah de los cepajes Tempranillo y Bonarda. Esta técnica podría ofrecerse como servicio a viveristas y productores vitícolas interesados en garantizar la identidad genética de sus materiales comercializados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se trabaja sobre la hipótesis de que el componente didáctico del discurso divulgativo queda delimitado por estrategias discursivas originadas en el tratamiento modal y actualizadas en los niveles funcional, situacional, semántico y formal-gramatical. El objetivo es caracterizar tales estrategias para identificar tendencias en la realización lingüísticodiscursiva del componente didáctico. El corpus se ha formado teniendo en cuenta soporte (web), formato (hipertexto) y dominio disciplinar (Análisis Sensorial de Vinos). La metodología es, fundamentalmente, cualitativo-ejemplar, basada en el modelo multinivel propuesto por Ciapuscio (2003) para el análisis de textos especializados. Los resultados sugieren que en el nivel funcional, el componente didáctico se distingue por el predominio de los términos positivos de las categorías modales epistémica (función informar) y ética (función dirigir); en el nivel situacional, por tres tipos de construcciones discursivas: la del enunciador experto, la del enunciatario lego y la de la pertenencia del lego a la comunidad especializada; en el nivel semántico, por la estandarización de partes textuales y por el predominio tanto de axiologización eufórica ética y cognoscitiva, como de secuencias expositivas y de procedimientos explicativos causales, descriptivos e ilustrativos; en el nivel formal, por recursos paratextuales e hipertextuales que refuerzan la actualización del componente didáctico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los perfiles de polipéptidos proveen información sobre la constitución genética de un individuo y su expresión, y son útiles como marcadores moleculares. El objetivo del trabajo fue detectar ligamiento entre los perfiles de polipéptidos del pericarpio en dos estados de madurez y caracteres cuantitativos y de calidad de los frutos, analizando 21 genotipos de tomate. Se obtuvieron los perfiles polipéptidos en los estados verde y rojo maduro de frutos de 18 líneas endocriadas recombinantes (RILs, recombinant inbred lines), derivadas de un cruzamiento interespecífico entre el cultivar Caimanta de S. lycopersicum y la entrada LA722 de S. pimpinellifolium, que se incluyeron como testigos experimentales junto a su F1. En estos 21 genotipos se evaluaron también vida poscosecha, peso, firmeza, porcentaje de reflectancia, índice cromático, forma, pH, acidez titulable, contenido de sólidos solubles, espesor de pericarpio y número de lóculos de los frutos. Los perfiles mostraron polimorfismo entre los estados de madurez dentro de un mismo genotipo y entre genotipos para un mismo estado de madurez. Algunos polipéptidos segregaron de forma mendeliana (1:1) y, por análisis de un único punto, mostraron ligamiento con caracteres de calidad del fruto. Se detectaron loci de caracteres cuantitativos (QTLs, quantitative trait loci) asociados a número de lóculos, peso, pH, firmeza y vida poscosecha de los frutos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el ámbito de la llanura pampeana tienen lugar procesos degradativos que condicionan la actividad agrícola ganadera, vinculados con la erosión de tipo hídrica superficial. El presente trabajo busca modelar la emisión de sedimentos en una cuenca hidrográfica con forestaciones del Noreste Pampeano. La metodología implementada consiste en aplicar un modelo cartográfico cuantitativo desarrollado en base geoespacial con Sistema de Información Geográfica, apoyado en la Ecuación Universal de Pérdida de Suelo Modificada (MUSLE). Se realizó un análisis de validación estadística con ensayos de microsimulador de lluvias a campo, para una lluvia de 30 mm.h-1 de dos años de retorno. Los resultados obtenidos fueron mapas georreferenciados de cada factor de la MUSLE valorizados por color-intensidad, que alcanzan un valor de 33,77 Mg de sedimentos emitidos a la salida de la cuenca, con un coeficiente de correlación de 0,94 y un grado de ajuste de Nash-Sutcliffe de 0,82. Se concluye que el modelo cartográfico generó información espacial precisa de los componentes de la MUSLE para un evento de lluvia concreto. La aplicación del microsimulador de lluvias permitió la obtención de valores reales de emisión de sedimentos, lográndose un alto grado de ajuste. La emisión de sedimentos en la cuenca resultó ser leve a nula.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral se inscribe dentro de la Traductología, interdisciplina que estudia tanto los procesos implicados en el complejo fenómeno de la traducción como los productos discursivos en la lengua hacia la cual se traduce. Su objetivo general consiste en contribuir a la investigación sobre el macroproceso de traducción en el par de lenguas francés/español, y en especial sobre la producción discursiva puesto que la literatura especializada coincide en destacar que ésta es la fase menos conocida [Lederer, 2005, 126; Toury, 2004, 244, 245]. Nuestro trabajo explora la producción discursiva, limitándola a traducciones absolutas [Gouadec, 1989: 21-30] de textos pragmáticos [Delisle, 1984: 22], cuya función esencial es el pasaje integral de la información. Dentro de dos corpora del campo de la Bioética constituidos por textos originales en francés y sus traducciones al castellano, hemos considerado como hipótesis general que los productos discursivos resultantes de la traducción absoluta de textos pragmáticos francés/castellano, presentan transferencias sintáctico-discursivas gobernadas por el universal de interferencia. Es decir que el planteo rector es que la memoria lingüístico-discursiva en la fase de reexpresión está atravesada por el mecanismo de interferencia. Las hipótesis específicas que se desgranan de la principal indican que la producción discursiva resultante de la traducción de textos pragmáticos francés/castellano exhibe enunciados elípticos anómalos gobernados por el universal de interferencia del discurso de partida [francés] o del sistema de la lengua materna del traductor [castellano]. Nuestra investigación parte entonces de la lectura del texto traducido [TT] y lo compara con el texto original [TO]; esta comparación es parcial puesto que indaga sobre las anomalías de producción; es indirecta pues observa la relación cohesión-coherencia-sentido en el discurso de llegada a través de las anomalías, especialmente de los enunciados elípticos; por último, analiza las anomalías dentro de la teoría de la interferencia y de la teoría de la elipsis [Toury, 2004: 121-124]. Sobre estas bases, hemos generado un instrumento que estudia los binomios textuales seleccionados según las siguientes aproximaciones: la sintaxis de la lengua meta [tipo de elipsis, elemento elidido, construcción de la elipsis, recuperabilidad]; la sintaxis del discurso meta [cohesión-coherencia], la comparación del binomio TT-TO [análisis de la producción del segmento problema en TO; el análisis de la producción del segmento solución en TT; posible extensión de las consecuencias de la anomalía microestructural; verificación del principio traducir toda la información]; los mecanismos de producción [elevación de la frecuencia de uso de recursos o elementos; control lingüístico de la lengua-cultura meta; control lingüístico-discursivo]; el resultado [visibilidad de interferencia; fenómeno sintáctico visible; alcance discursivo; producción palimpséstica; entropía informativa]. La elaboración de este andamiaje analítico aplicado a nuestros corpora nos ha permitido avanzar en el conocimiento de los mecanismos que participan en la producción discursiva en traducción y creemos que puede aplicarse, con las modificaciones de cada caso, para la descripción y quizás explicación de otros factores lingüístico-discursivos presentes en los textos traducidos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los textos académicos a los que los alumnos acuden en busca de información no siempre les resultan fácilmente comprensibles. Se observa que en el nivel pragmático las dificultades son muy importantes y revelan interferencias en la construcción de sentido del texto, a veces por limitaciones de la competencia de los lectores y otras veces por problemas en la organización retórica de los textos. Este trabajo se propone abordar y analizar la incidencia de los conocimientos sobre la distribución de la información de los textos, en las posibilidades de los alumnos para alcanzar la comprensión de los mismos. Se seguirá la concepción de Rosenblatt sobre la lectura como proceso transaccional entre el lector que construye el sentido sobre la base de las pistas literales o inferenciales que el texto le ofrece, y de Kintsch y van Dijk sobre la comprensión como un proceso cognitivo que se desarrolla en tres etapas: decodificación, recuperación del texto base y construcción del modelo de situación. El análisis de la incidencia de los conocimientos previos de los lectores para 'dosificar' la nueva información, se apoyará en las funciones informativas del texto desarrolladas por la Escuela de Praga (especialmente tópico, tema y rema) para analizar de qué manera estas funciones pueden sustentar estrategias de lectura que activen en los lectores los procesos cognitivos correspondientes a la fase más elaborada de la comprensión, denominada construcción del modelo de situación. Para ello se analizarán las respuestas obtenidas frente a dos textos informativos sobre el mismo tema, de distinta complejidad, antes y después de capacitar a los alumnos en conocimientos específicos. Los resultados obtenidos permiten concluir que tales conocimientos favorecen el desempeño de los alumnos, particularmente en el caso de textos en los que la distribución de la información es más compleja

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presenta una caracterización de usos de la escritura en la enseñanza de la historia, producida en el marco de una investigación en Didácticas Específicas que estudia las relaciones entre la lectura y la escritura en la enseñanza y el aprendizaje escolar de historia. Se analizan usos de la escritura relacionados con distintas finalidades, además de los que impone el funcionamiento didáctico habitual de la historia como disciplina escolar. Se señalan posibles complementariedades y tensiones entre distintas racionalidades que intervienen en la generación de propuestas de escritura, en particular la tensión entre la lógica del estudio y la lógica del ejercicio. Por último, se caracteriza un problema del uso de las producciones escritas para la evaluación, relativo al modo en que pueden operar las consignas en la posibilidad de que los alumnos desplieguen -o no- los contenidos aprendidos sobre el tema evaluado

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La búsqueda de información y sus problemas colaterales inciden en el desarrollo de la actividad de los investigadores. Nos proponemos analizar esta temática a través del estudio de las pautas de comportamiento de investigadores de la Facultad de Humanidades y Ciencias de la Educación de la Universidad de La Plata, para identificar conductas informativas y al mismo tiempo detectar obstáculos que impiden el aprovechamiento óptimo de la Biblioteca Central y las Bibliotecas Departamentales de la Institución. Los resultados obtenidos servirán de base para definir indicadores de calidad aplicables a la mejora continua de los servicios de biblioteca. Como resultado del análisis de metodologías aplicadas en estudios de usuarios se determinó combinar las perspectivas cuantitativa y cualitativa en este trabajo en curso

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo se propone el diseño de una grilla exhaustiva de características específicas de naturaleza formal, informativa y ergonómica para hacer que un sitio Web de bibliotecas universitarias sea de calidad, accesible y garantice el acceso a la información. Para ello, se efectúa un relevamiento de la bibliografía que analiza el tema y se elabora un modelo que pondera dichas características seleccionadas. Las conclusiones demuestran que es posible diseñar un modelo específico de atributos, estableciendo cuáles son los que mejor representan la calidad de una biblioteca universitaria en el entorno Web