907 resultados para Likelihood Ratio Test
Resumo:
Trypanosomiasis has been identified as a neglected tropical disease in both humans and animals in many regions of sub-Saharan Africa. Whilst assessments of the biology of trypanosomes, vectors, vertebrate hosts and the environment have provided useful information about life cycles, transmission, and pathogenesis of the parasites that could be used for treatment and control, less information is available about the effects of interactions among multiple intrinsic factors on trypanosome presence in tsetse flies from different sites. It is known that multiple species of tsetse flies can transmit trypanosomes but differences in their vector competence has normally been studied in relation to individual factors in isolation, such as: intrinsic factors of the flies (e.g. age, sex); habitat characteristics; presence of endosymbionts (e.g. Wigglesworthia glossinidia, Sodalis glossinidius); feeding pattern; host communities that the flies feed on; and which species of trypanosomes are transmitted. The purpose of this study was to take a more integrated approach to investigate trypanosome prevalence in tsetse flies. In chapter 2, techniques were optimised for using the Polymerase Chain Reaction (PCR) to identify species of trypanosomes (Trypanosoma vivax, T. congolense, T. brucei, T. simiae, and T. godfreyi) present in four species of tsetse flies (Glossina austeni, G. brevipalpis, G. longipennis and G. pallidipes) from two regions of eastern Kenya (the Shimba Hills and Nguruman). Based on universal primers targeting the internal transcribed spacer 1 region (ITS-1), T. vivax was the predominant pathogenic species detected in flies, both singly and in combination with other species of trypanosomes. Using Generalised Linear Models (GLMs) and likelihood ratio tests to choose the best-fitting models, presence of T. vivax was significantly associated with an interaction between subpopulation (a combination between collection sites and species of Glossina) and sex of the flies (X2 = 7.52, df = 21, P-value = 0.0061); prevalence in females overall was higher than in males but this was not consistent across subpopulations. Similarly, T. congolense was significantly associated only with subpopulation (X2 = 18.77, df = 1, P-value = 0.0046); prevalence was higher overall in the Shimba Hills than in Nguruman but this pattern varied by species of tsetse fly. When associations were analysed in individual species of tsetse flies, there were no consistent associations between trypanosome prevalence and any single factor (site, sex, age) and different combinations of interactions were found to be significant for each. The results thus demonstrated complex interactions between vectors and trypanosome prevalence related to both the distribution and intrinsic factors of tsetse flies. The potential influence of the presence of S. glossinidius on trypanosome presence in tsetse flies was studied in chapter 3. A high number of Sodalis positive flies was found in the Shimba Hills, while there were only two positive flies from Nguruman. Presence or absence of Sodalis was significantly associated with subpopulation while trypanosome presence showed a significant association with age (X2 = 4.65, df = 14, P-value = 0.0310) and an interaction between subpopulation and sex (X2 = 18.94, df = 10, P-value = 0.0043). However, the specific associations that were significant varied across species of trypanosomes, with T. congolense and T. brucei but not T. vivax showing significant interactions involving Sodalis. Although it has previously been concluded that presence of Sodalis increases susceptibility to trypanosomes, the results presented here suggest a more complicated relationship, which may be biased by differences in the distribution and intrinsic factors of tsetse flies, as well as which trypanosome species are considered. In chapter 4 trypanosome status was studied in relation to blood meal sources, feeding status and feeding patterns of G. pallidipes (which was the predominant fly species collected for this study) as determined by sequencing the mitochondrial cytochrome B gene using DNA extracted from abdomen samples. African buffalo and African elephants were the main sources of blood meals but antelopes, warthogs, humans, giraffes and hyenas were also identified. Feeding on multiple hosts was common in flies sampled from the Shimba Hills but most flies from Nguruman had fed on single host species. Based on Multiple Correspondence Analysis (MCA), host-feeding patterns showed a correlation with site of sample collection and Sodalis status, while trypanosome status was correlated with sex and age of the flies, suggesting that recent host-feeding patterns from blood meal analysis cannot predict trypanosome status. In conclusion, the complexity of interactions found suggests that strategies of tsetse fly control should be specific to particular epidemic areas. Future studies should include laboratory experiments that use local colonies of tsetse flies, local strains of trypanosomes and local S. glossinidius under controlled environmental conditions to tease out the factors that affect vector competence and the relative influence of external environmental factors on the dynamics of these interactions.
Resumo:
La neoplasia tiroidea impulsa la búsqueda de métodos diagnósticos para obtener un dictamen precoz y tratamiento oportuno que permitan mayor supervivencia y mejor calidad de vida. Objetivo: determinar la correlación entre estudio citológico e histopatológico en el diagnóstico de Neoplasia Tiroidea en pacientes atendidos en SOLCA – Cuenca, periodo 2009-2013. Metodología: estudio observacional, retrospectivo, analítico y de correlación diagnóstica, elaborado con historias clínicas de pacientes en quienes se realizó punciones (PAAF) para la citología, según el Sistema Bethesda, y con histopatología, para diagnosticar neoplasia tiroidea. Resultados: investigación desarrollada con 415 pacientes con neoplasia tiroidea. Caracterizada por 89.2% de mujeres; edad promedio de 51.8 ± 15.2 años, de 41-55 años fue la mayor categoría (36,9%); 47.2% procedieron de Cuenca y el 37.8% de las provincias vecinas. Estado civil casado/a fue más frecuente, 269 (64,8%), y de profesión “amas de casa” fueron las más afectadas 231 (55,7%). El 96.4% de diagnósticos citológicos Bethesda categoría 6, fueron confirmados por histología. Hubo correlación (r = 0.49) significativa y concordancia moderada (kappa = 0.337) entre citología e histología. Sensibilidad=63% (IC95%: 58 – 69), Especificidad=94% (IC95%: 89 – 98), RVP=10.9 (IC95%: 5 – 22) y RVN=0.39 (IC95%: 0.3 – 0.4). Conclusiones: la citología por PAAF es una herramienta para el estudio, diagnóstico de pacientes con afecciones tiroideas. Una punción realizada por expertos es una técnica rápida, económica, bien tolerada, y produce resultados confiables. La categorización Bethesda representa un sistema confiable, válido para reportar citología de tiroides
Resumo:
Estudio que tiene el objetivo de determinar la concordancia diagnóstica entre la prueba de visualización con ácido (PVAA), citología e histopatología para diagnóstico de lesisones de cuello uterino. Se realizó PVAA y citología a 130 mujeres entre 20 y 89 años beneficiarias del programa DOC del MSP en el Centro de Salud No. 1 de Cuenca y el Hospsital José F. Valdivieso de Santa Isabel desde el 1 de enero hasta el 31 de diciembre de 2004. Resultados: la biopsia únicamente en 22 acetoblancas positivas. La sensibilidad de la PVAA fue del 100, igual a la biopsia (prueba de oro), pero la especificidad fue del 86.4(IC9579,9 - 92,8) debido al alto porcentaje de falsos positivos (17/22 = 77,27). El valor predictivo positivo fue del 22.7(IC952,9 - 42,5) pero el negativo del 100. La concordancia de la prueba por el índice Kappa fue del 32,8(IC9516 - 33) y la eficacia por el índice de Youden, del 86(IC9580 - 92). El cálculo de la probabilidad diagnóstica nos dio un Likelihood Ratio + de 7,35 (IC954,73 -11,4) y un LR - de 0,0 (IC950,0 - 0,4). Los resultados de Papanicolaou fueron iguales a la biopsia. Se detectó el 3,9de lesiones histológicas premalignas, el 0,8LIE de bajo grado (NIC I) y el 3,1LIE de alto grado (NIC II y NIC III). Implicaciones: la PVAA es de alta sensibilidad y mejora la tasa de detección de lesiones precancerosas con respeto a la citología convencional, pero genra inquietudes la elevada proporción de falsos positivos. Por la facilidad de realización y bajo costo resulta atractiva para medios de escasos recursos como el de la muestra
Resumo:
Les arthroplasties totales de la hanche (ATH) et du genou (ATG) sont souvent offertes aux patients atteints de dégénérescence articulaire sévère. Bien qu’efficace chez la majorité des patients, ces interventions mènent à des résultats sous-optimaux dans de nombreux cas. Il demeure difficile d’identifier les patients à risque de résultats sous-optimaux à l’heure actuelle. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser la gamme de soins et de services offerts et de possiblement améliorer les résultats de leur chirurgie. Ce mémoire a comme objectifs : 1) de réaliser une revue systématique des déterminants associés à la douleur et aux incapacités fonctionnelles rapportées par les patients à moyen-terme suivant ces deux types d’arthroplastie et 2) de développer des modèles de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles suivant l’ATH et l’ATG. Une revue systématique de la littérature identifiant les déterminants de la douleur et de la fonction suivant l’ATH et l’ATG a été réalisée dans quatre bases de données jusqu’en avril 2015 et octobre 2014, respectivement. Afin de développer un algorithme de prédiction pouvant identifier les patients à risque de résultats sous-optimaux, nous avons aussi utilisé des données rétrospectives provenant de 265 patients ayant subi une ATH à l’Hôpital Maisonneuve-Rosemont (HMR) de 2004 à 2010. Finalement, des données prospectives sur 141 patients recrutés au moment de leur inclusion sur une liste d’attente pour une ATG dans trois hôpitaux universitaires à Québec, Canada et suivis jusqu’à six mois après la chirurgie ont permis l’élaboration d’une règle de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles. Vingt-deux (22) études d’une qualité méthodologique moyenne à excellente ont été incluses dans la revue. Les principaux déterminants de douleur et d’incapacités fonctionnelles après l’ATH incluaient: le niveau préopératoire de douleur et de fonction, un indice de la masse corporelle plus élevé, des comorbidités médicales plus importantes, un état de santé générale diminué, une scolarité plus faible, une arthrose radiographique moins sévère et la présence d’arthrose à la hanche controlatérale. Trente-quatre (34) études évaluant les déterminants de douleur et d’incapacités fonctionnelles après l’ATG avec une qualité méthodologique moyenne à excellente ont été évaluées et les déterminants suivant ont été identifiés: le niveau préopératoire de douleur et de fonction, des comorbidités médicales plus importantes, un état de santé générale diminué, un plus grands niveau d’anxiété et/ou de symptômes dépressifs, la présence de douleur au dos, plus de pensées catastrophiques ou un faible niveau socioéconomique. Pour la création d’une règle de prédiction clinique, un algorithme préliminaire composé de l’âge, du sexe, de l’indice de masse corporelle ainsi que de trois questions du WOMAC préopératoire a permis l’identification des patients à risque de résultats chirurgicaux sous-optimaux (pire quartile du WOMAC postopératoire et percevant leur hanche opérée comme artificielle avec des limitations fonctionnelles mineures ou majeures) à une durée moyenne ±écart type de 446±171 jours après une ATH avec une sensibilité de 75.0% (95% IC: 59.8 – 85.8), une spécificité de 77.8% (95% IC: 71.9 – 82.7) et un rapport de vraisemblance positif de 3.38 (98% IC: 2.49 – 4.57). Une règle de prédiction clinique formée de cinq items du questionnaire WOMAC préopratoire a permis l’identification des patients en attente d’une ATG à risque de mauvais résultats (pire quintile du WOMAC postopératoire) six mois après l’ATG avec une sensibilité de 82.1 % (95% IC: 66.7 – 95.8), une spécificité de 71.7% (95% IC: 62.8 – 79.8) et un rapport de vraisemblance positif de 2.9 (95% IC: 1.8 – 4.7). Les résultats de ce mémoire ont permis d’identifier, à partir de la littérature, une liste de déterminants de douleur et d’incapacités fonctionnelles après l’ATH et l’ATG avec le plus haut niveau d’évidence à ce jour. De plus, deux modèles de prédiction avec de très bonnes capacités prédictives ont été développés afin d’identifier les patients à risque de mauvais résultats chirurgicaux après l’ATH et l’ATG. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser leur prise en charge et de possiblement améliorer les résultats de leur chirurgie.
Resumo:
Les arthroplasties totales de la hanche (ATH) et du genou (ATG) sont souvent offertes aux patients atteints de dégénérescence articulaire sévère. Bien qu’efficace chez la majorité des patients, ces interventions mènent à des résultats sous-optimaux dans de nombreux cas. Il demeure difficile d’identifier les patients à risque de résultats sous-optimaux à l’heure actuelle. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser la gamme de soins et de services offerts et de possiblement améliorer les résultats de leur chirurgie. Ce mémoire a comme objectifs : 1) de réaliser une revue systématique des déterminants associés à la douleur et aux incapacités fonctionnelles rapportées par les patients à moyen-terme suivant ces deux types d’arthroplastie et 2) de développer des modèles de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles suivant l’ATH et l’ATG. Une revue systématique de la littérature identifiant les déterminants de la douleur et de la fonction suivant l’ATH et l’ATG a été réalisée dans quatre bases de données jusqu’en avril 2015 et octobre 2014, respectivement. Afin de développer un algorithme de prédiction pouvant identifier les patients à risque de résultats sous-optimaux, nous avons aussi utilisé des données rétrospectives provenant de 265 patients ayant subi une ATH à l’Hôpital Maisonneuve-Rosemont (HMR) de 2004 à 2010. Finalement, des données prospectives sur 141 patients recrutés au moment de leur inclusion sur une liste d’attente pour une ATG dans trois hôpitaux universitaires à Québec, Canada et suivis jusqu’à six mois après la chirurgie ont permis l’élaboration d’une règle de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles. Vingt-deux (22) études d’une qualité méthodologique moyenne à excellente ont été incluses dans la revue. Les principaux déterminants de douleur et d’incapacités fonctionnelles après l’ATH incluaient: le niveau préopératoire de douleur et de fonction, un indice de la masse corporelle plus élevé, des comorbidités médicales plus importantes, un état de santé générale diminué, une scolarité plus faible, une arthrose radiographique moins sévère et la présence d’arthrose à la hanche controlatérale. Trente-quatre (34) études évaluant les déterminants de douleur et d’incapacités fonctionnelles après l’ATG avec une qualité méthodologique moyenne à excellente ont été évaluées et les déterminants suivant ont été identifiés: le niveau préopératoire de douleur et de fonction, des comorbidités médicales plus importantes, un état de santé générale diminué, un plus grands niveau d’anxiété et/ou de symptômes dépressifs, la présence de douleur au dos, plus de pensées catastrophiques ou un faible niveau socioéconomique. Pour la création d’une règle de prédiction clinique, un algorithme préliminaire composé de l’âge, du sexe, de l’indice de masse corporelle ainsi que de trois questions du WOMAC préopératoire a permis l’identification des patients à risque de résultats chirurgicaux sous-optimaux (pire quartile du WOMAC postopératoire et percevant leur hanche opérée comme artificielle avec des limitations fonctionnelles mineures ou majeures) à une durée moyenne ±écart type de 446±171 jours après une ATH avec une sensibilité de 75.0% (95% IC: 59.8 – 85.8), une spécificité de 77.8% (95% IC: 71.9 – 82.7) et un rapport de vraisemblance positif de 3.38 (98% IC: 2.49 – 4.57). Une règle de prédiction clinique formée de cinq items du questionnaire WOMAC préopratoire a permis l’identification des patients en attente d’une ATG à risque de mauvais résultats (pire quintile du WOMAC postopératoire) six mois après l’ATG avec une sensibilité de 82.1 % (95% IC: 66.7 – 95.8), une spécificité de 71.7% (95% IC: 62.8 – 79.8) et un rapport de vraisemblance positif de 2.9 (95% IC: 1.8 – 4.7). Les résultats de ce mémoire ont permis d’identifier, à partir de la littérature, une liste de déterminants de douleur et d’incapacités fonctionnelles après l’ATH et l’ATG avec le plus haut niveau d’évidence à ce jour. De plus, deux modèles de prédiction avec de très bonnes capacités prédictives ont été développés afin d’identifier les patients à risque de mauvais résultats chirurgicaux après l’ATH et l’ATG. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser leur prise en charge et de possiblement améliorer les résultats de leur chirurgie.
Resumo:
Cardiovascular disease is one of the leading causes of death around the world. Resting heart rate has been shown to be a strong and independent risk marker for adverse cardiovascular events and mortality, and yet its role as a predictor of risk is somewhat overlooked in clinical practice. With the aim of highlighting its prognostic value, the role of resting heart rate as a risk marker for death and other adverse outcomes was further examined in a number of different patient populations. A systematic review of studies that previously assessed the prognostic value of resting heart rate for mortality and other adverse cardiovascular outcomes was presented. New analyses of nine clinical trials were carried out. Both the original and extended Cox model that allows for analysis of time-dependent covariates were used to evaluate and compare the predictive value of baseline and time-updated heart rate measurements for adverse outcomes in the CAPRICORN, EUROPA, PROSPER, PERFORM, BEAUTIFUL and SHIFT populations. Pooled individual patient meta-analyses of the CAPRICORN, EPHESUS, OPTIMAAL and VALIANT trials, and the BEAUTIFUL and SHIFT trials, were also performed. The discrimination and calibration of the models applied were evaluated using Harrell’s C-statistic and likelihood ratio tests, respectively. Finally, following on from the systematic review, meta-analyses of the relation between baseline and time-updated heart rate, and the risk of death from any cause and from cardiovascular causes, were conducted. Both elevated baseline and time-updated resting heart rates were found to be associated with an increase in the risk of mortality and other adverse cardiovascular events in all of the populations analysed. In some cases, elevated time-updated heart rate was associated with risk of events where baseline heart rate was not. Time-updated heart rate also contributed additional information about the risk of certain events despite knowledge of baseline heart rate or previous heart rate measurements. The addition of resting heart rate to the models where resting heart rate was found to be associated with risk of outcome improved both discrimination and calibration, and in general, the models including time-updated heart rate along with baseline or the previous heart rate measurement had the highest and similar C-statistics, and thus the greatest discriminative ability. The meta-analyses demonstrated that a 5bpm higher baseline heart rate was associated with a 7.9% and an 8.0% increase in the risk of all-cause and cardiovascular death, respectively (both p less than 0.001). Additionally, a 5bpm higher time-updated heart rate (adjusted for baseline heart rate in eight of the ten studies included in the analyses) was associated with a 12.8% (p less than 0.001) and a 10.9% (p less than 0.001) increase in the risk of all-cause and cardiovascular death, respectively. These findings may motivate health care professionals to routinely assess resting heart rate in order to identify individuals at a higher risk of adverse events. The fact that the addition of time-updated resting heart rate improved the discrimination and calibration of models for certain outcomes, even if only modestly, strengthens the case that it be added to traditional risk models. The findings, however, are of particular importance, and have greater implications for the clinical management of patients with pre-existing disease. An elevated, or increasing heart rate over time could be used as a tool, potentially alongside other established risk scores, to help doctors identify patient deterioration or those at higher risk, who might benefit from more intensive monitoring or treatment re-evaluation. Further exploration of the role of continuous recording of resting heart rate, say, when patients are at home, would be informative. In addition, investigation into the cost-effectiveness and optimal frequency of resting heart rate measurement is required. One of the most vital areas for future research is the definition of an objective cut-off value for the definition of a high resting heart rate.
Resumo:
This article presents frequentist inference of accelerated life test data of series systems with independent log-normal component lifetimes. The means of the component log-lifetimes are assumed to depend on the stress variables through a linear stress translation function that can accommodate the standard stress translation functions in the literature. An expectation-maximization algorithm is developed to obtain the maximum likelihood estimates of model parameters. The maximum likelihood estimates are then further refined by bootstrap, which is also used to infer about the component and system reliability metrics at usage stresses. The developed methodology is illustrated by analyzing a real as well as a simulated dataset. A simulation study is also carried out to judge the effectiveness of the bootstrap. It is found that in this model, application of bootstrap results in significant improvement over the simple maximum likelihood estimates.
Resumo:
Epidemiological evidence shows that a diet high in monounsaturated fatty acids (MUFA) but low in saturated fatty acids (SFA) is associated with reduced risk of CHD. The hypocholesterolaemic effect of MUFA is known but there has been little research on the effect of test meal MUFA and SFA composition on postprandial lipid metabolism. The present study investigated the effect of meals containing different proportions of MUFA and SFA on postprandial triacylglycerol and non-esterified fatty acid (NEFA) metabolism. Thirty healthy male volunteers consumed three meals containing equal amounts of fat (40 g), but different proportions of MUFA (12, 17 and 24% energy) in random order. Postprandial plasma triacylglycerol, apolipoprotein B-48, cholesterol, HDL-cholesterol, glucose and insulin concentrations and lipoprotein lipase (EC 3.1.1.34) activity were not significantly different following the three meals which varied in their levels of SFA and MUFA. There was a significant difference in the postprandial NEFA response between meals. The incremental area under the curve of postprandial plasma NEFA concentrations was significantly (P = 0.03) lower following the high-MUFA meal. Regression analysis showed that the non-significant difference in fasting NEFA concentrations was the most important factor determining difference between meals, and that the test meal MUFA content had only a minor effect. In conclusion, varying the levels of MUFA and SFA in test meals has little or no effect on postprandial lipid metabolism.
Resumo:
The study of short implants is relevant to the biomechanics of dental implants, and research on crown increase has implications for the daily clinic. The aim of this study was to analyze the biomechanical interactions of a singular implant-supported prosthesis of different crown heights under vertical and oblique force, using the 3-D finite element method. Six 3-D models were designed with Invesalius 3.0, Rhinoceros 3D 4.0, and Solidworks 2010 software. Each model was constructed with a mandibular segment of bone block, including an implant supporting a screwed metal-ceramic crown. The crown height was set at 10, 12.5, and 15 mm. The applied force was 200 N (axial) and 100 N (oblique). We performed an ANOVA statistical test and Tukey tests; p < 0.05 was considered statistically significant. The increase of crown height did not influence the stress distribution on screw prosthetic (p > 0.05) under axial load. However, crown heights of 12.5 and 15 mm caused statistically significant damage to the stress distribution of screws and to the cortical bone (p <0.001) under oblique load. High crown to implant (C/I) ratio harmed microstrain distribution on bone tissue under axial and oblique loads (p < 0.001). Crown increase was a possible deleterious factor to the screws and to the different regions of bone tissue. (C) 2014 Elsevier Ltd. All rights reserved.
Resumo:
Our aim was to determine the normative reference values of cardiorespiratory fitness (CRF) and to establish the proportion of subjects with low CRF suggestive of future cardio-metabolic risk.
Resumo:
Speech recognition in car environments has been identified as a valuable means for reducing driver distraction when operating non-critical in-car systems. Likelihood-maximising (LIMA) frameworks optimise speech enhancement algorithms based on recognised state sequences rather than traditional signal-level criteria such as maximising signal-to-noise ratio. Previously presented LIMA frameworks require calibration utterances to generate optimised enhancement parameters which are used for all subsequent utterances. Sub-optimal recognition performance occurs in noise conditions which are significantly different from that present during the calibration session - a serious problem in rapidly changing noise environments. We propose a dialog-based design which allows regular optimisation iterations in order to track the changing noise conditions. Experiments using Mel-filterbank spectral subtraction are performed to determine the optimisation requirements for vehicular environments and show that minimal optimisation assists real-time operation with improved speech recognition accuracy. It is also shown that the proposed design is able to provide improved recognition performance over frameworks incorporating a calibration session.
Resumo:
Purpose. To investigate the functional impact of amblyopia in children, the performance of amblyopic and age-matched control children on a clinical test of eye movements was compared. The influence of visual factors on test outcome measures was explored. Methods. Eye movements were assessed with the Developmental Eye Movement (DEM) test, in a group of children with amblyopia (n = 39; age, 9.1 ± 0.9 years) of different causes (infantile esotropia, n = 7; acquired strabismus, n = 10; anisometropia, n = 8; mixed, n = 8; deprivation, n = 6) and in an age-matched control group (n = 42; age, 9.3 ± 0.4 years). LogMAR visual acuity (VA), stereoacuity, and refractive error were also recorded in both groups. Results. No significant difference was found between the amblyopic and age-matched control group for any of the outcome measures of the DEM (vertical time, horizontal time, number of errors and ratio(horizontal time/vertical time)). The DEM measures were not significantly related to VA in either eye, level of binocular function (stereoacuity), history of strabismus, or refractive error. Conclusions. The performance of amblyopic children on the DEM, a commonly used clinical measure of eye movements, has not previously been reported. Under habitual binocular viewing conditions, amblyopia has no effect on DEM outcome scores despite significant impairment of binocular vision and decreased VA in both the better and worse eye.
Resumo:
This paper will investigate the suitability of existing performance measures under the assumption of a clearly defined benchmark. A range of measures are examined including the Sortino Ratio, the Sharpe Selection ratio (SSR), the Student’s t-test and a decay rate measure. A simulation study is used to assess the power and bias of these measures based on variations in sample size and mean performance of two simulated funds. The Sortino Ratio is found to be the superior performance measure exhibiting more power and less bias than the SSR when the distribution of excess returns are skewed.
Resumo:
Accurate road lane information is crucial for advanced vehicle navigation and safety applications. With the increasing of very high resolution (VHR) imagery of astonishing quality provided by digital airborne sources, it will greatly facilitate the data acquisition and also significantly reduce the cost of data collection and updates if the road details can be automatically extracted from the aerial images. In this paper, we proposed an effective approach to detect road lanes from aerial images with employment of the image analysis procedures. This algorithm starts with constructing the (Digital Surface Model) DSM and true orthophotos from the stereo images. Next, a maximum likelihood clustering algorithm is used to separate road from other ground objects. After the detection of road surface, the road traffic and lane lines are further detected using texture enhancement and morphological operations. Finally, the generated road network is evaluated to test the performance of the proposed approach, in which the datasets provided by Queensland department of Main Roads are used. The experiment result proves the effectiveness of our approach.