967 resultados para Missing values, Multiple comparisons, Unequal treatment samples


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Happy emotional states have not been extensively explored in functional magnetic resonance imaging studies using autobiographic recall paradigms. We investigated the brain circuitry engaged during induction of happiness by standardized script-driven autobiographical recall in 11 healthy subjects (6 males), aged 32.4 ± 7.2 years, without physical or psychiatric disorders, selected according to their ability to vividly recall personal experiences. Blood oxygen level-dependent (BOLD) changes were recorded during auditory presentation of personal scripts of happiness, neutral content and negative emotional content (irritability). The same uniform structure was used for the cueing narratives of both emotionally salient and neutral conditions, in order to decrease the variability of findings. In the happiness relative to the neutral condition, there was an increased BOLD signal in the left dorsal prefrontal cortex and anterior insula, thalamus bilaterally, left hypothalamus, left anterior cingulate gyrus, and midportions of the left middle temporal gyrus (P < 0.05, corrected for multiple comparisons). Relative to the irritability condition, the happiness condition showed increased activity in the left insula, thalamus and hypothalamus, and in anterior and midportions of the inferior and middle temporal gyri bilaterally (P < 0.05, corrected), varying in size between 13 and 64 voxels. Findings of happiness-related increased activity in prefrontal and subcortical regions extend the results of previous functional imaging studies of autobiographical recall. The BOLD signal changes identified reflect general aspects of emotional processing, emotional control, and the processing of sensory and bodily signals associated with internally generated feelings of happiness. These results reinforce the notion that happiness induction engages a wide network of brain regions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sleep disturbances have far-reaching effects on the neuroendocrine and immune systems and may be linked to disease manifestation. Sleep deprivation can accelerate the onset of lupus in NZB/NZWF1 mice, an animal model of severe systemic lupus erythematosus. High prolactin (PRL) concentrations are involved in the pathogenesis of systemic lupus erythematosus in human beings, as well as in NZB/NZWF1 mice. We hypothesized that PRL could be involved in the earlier onset of the disease in sleep-deprived NZB/NZWF1 mice. We also investigated its binding to dopaminergic receptors, since PRL secretion is mainly controlled by dopamine. Female NZB/NZWF1 mice aged 9 weeks were deprived of sleep using the multiple platform method. Blood samples were taken for the determination of PRL concentrations and quantitative receptor autoradiography was used to map binding of the tritiated dopaminergic receptor ligands [³H]-SCH23390, [³H]-raclopride and [³H]-WIN35,428 to D1 and D2 dopaminergic receptors and dopamine transporter sites throughout the brain, respectively. Sleep deprivation induced a significant decrease in plasma PRL secretion (2.58 ± 0.95 ng/mL) compared with the control group (25.25 ± 9.18 ng/mL). The binding to D1 and D2 binding sites was not significantly affected by sleep deprivation; however, dopamine transporter binding was significantly increased in subdivisions of the caudate-putamen - posterior (16.52 ± 0.5 vs 14.44 ± 0.6), dorsolateral (18.84 ± 0.7 vs 15.97 ± 0.7) and ventrolateral (24.99 ± 0.5 vs 22.54 ± 0.7 µCi/g), in the sleep-deprived mice when compared to the control group. These results suggest that PRL is not the main mechanism involved in the earlier onset of the disease observed in sleep-deprived NZB/NZWF1 mice and the reduction of PRL concentrations after sleep deprivation may be mediated by modifications in the dopamine transporter sites of the caudate-putamen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Laser cutting implementation possibilities into paper making machine was studied as the main objective of the work. Laser cutting technology application was considered as a replacement tool for conventional cutting methods used in paper making machines for longitudinal cutting such as edge trimming at different paper making process and tambour roll slitting. Laser cutting of paper was tested in 70’s for the first time. Since then, laser cutting and processing has been applied for paper materials with different level of success in industry. Laser cutting can be employed for longitudinal cutting of paper web in machine direction. The most common conventional cutting methods include water jet cutting and rotating slitting blades applied in paper making machines. Cutting with CO2 laser fulfils basic requirements for cutting quality, applicability to material and cutting speeds in all locations where longitudinal cutting is needed. Literature review provided description of advantages, disadvantages and challenges of laser technology when it was applied for cutting of paper material with particular attention to cutting of moving paper web. Based on studied laser cutting capabilities and problem definition of conventional cutting technologies, preliminary selection of the most promising application area was carried out. Laser cutting (trimming) of paper web edges in wet end was estimated to be the most promising area where it can be implemented. This assumption was made on the basis of rate of web breaks occurrence. It was found that up to 64 % of total number of web breaks occurred in wet end, particularly in location of so called open draws where paper web was transferred unsupported by wire or felt. Distribution of web breaks in machine cross direction revealed that defects of paper web edge was the main reason of tearing initiation and consequent web break. The assumption was made that laser cutting was capable of improvement of laser cut edge tensile strength due to high cutting quality and sealing effect of the edge after laser cutting. Studies of laser ablation of cellulose supported this claim. Linear energy needed for cutting was calculated with regard to paper web properties in intended laser cutting location. Calculated linear cutting energy was verified with series of laser cutting. Practically obtained laser energy needed for cutting deviated from calculated values. This could be explained by difference in heat transfer via radiation in laser cutting and different absorption characteristics of dry and moist paper material. Laser cut samples (both dry and moist (dry matter content about 25-40%)) were tested for strength properties. It was shown that tensile strength and strain break of laser cut samples are similar to corresponding values of non-laser cut samples. Chosen method, however, did not address tensile strength of laser cut edge in particular. Thus, the assumption of improving strength properties with laser cutting was not fully proved. Laser cutting effect on possible pollution of mill broke (recycling of trimmed edge) was carried out. Laser cut samples (both dry and moist) were tested on the content of dirt particles. The tests revealed that accumulation of dust particles on the surface of moist samples can take place. This has to be taken into account to prevent contamination of pulp suspension when trim waste is recycled. Material loss due to evaporation during laser cutting and amount of solid residues after cutting were evaluated. Edge trimming with laser would result in 0.25 kg/h of solid residues and 2.5 kg/h of lost material due to evaporation. Schemes of laser cutting implementation and needed laser equipment were discussed. Generally, laser cutting system would require two laser sources (one laser source for each cutting zone), set of beam transfer and focusing optics and cutting heads. In order to increase reliability of system, it was suggested that each laser source would have double capacity. That would allow to perform cutting employing one laser source working at full capacity for both cutting zones. Laser technology is in required level at the moment and do not require additional development. Moreover, capacity of speed increase is high due to availability high power laser sources what can support the tendency of speed increase of paper making machines. Laser cutting system would require special roll to maintain cutting. The scheme of such roll was proposed as well as roll integration into paper making machine. Laser cutting can be done in location of central roll in press section, before so-called open draw where many web breaks occur, where it has potential to improve runability of a paper making machine. Economic performance of laser cutting was done as comparison of laser cutting system and water jet cutting working in the same conditions. It was revealed that laser cutting would still be about two times more expensive compared to water jet cutting. This is mainly due to high investment cost of laser equipment and poor energy efficiency of CO2 lasers. Another factor is that laser cutting causes material loss due to evaporation whereas water jet cutting almost does not cause material loss. Despite difficulties of laser cutting implementation in paper making machine, its implementation can be beneficial. The crucial role in that is possibility to improve cut edge strength properties and consequently reduce number of web breaks. Capacity of laser cutting to maintain cutting speeds which exceed current speeds of paper making machines what is another argument to consider laser cutting technology in design of new high speed paper making machines.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study sought to evaluate the acceptance of "dulce de leche" with coffee and whey. The results were analyzed through response surface, ANOVA, test of averages, histograms, and preference map correlating the global impression data with results of physical, physiochemical and sensory analysis. The response surface methodology, by itself, was not enough to find the best formulation. For ANOVA, test of averages, and preference map it was observed that the consumers' favorite "dulce de leche" were those of formulation 1 (10% whey and 1% coffee) and 2 (30% whey and 1% coffee), followed by formulation 9 (20% whey and 1.25% coffee). The acceptance of samples 1 and 2 was influenced by the higher acceptability in relation to the flavor and for presenting higher pH, L*, and b* values. It was observed that samples 1 and 2 presented higher purchase approval score and higher percentages of responses for the 'ideal' category in terms of sweetness and coffee flavor. It was found that consumers preferred the samples with low concentrations of coffee independent of the concentration of whey thus enabling the use of whey and coffee in the manufacture of dulce de leche, obtaining a new product.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Euclidean distance matrix analysis (EDMA) methods are used to distinguish whether or not significant difference exists between conformational samples of antibody complementarity determining region (CDR) loops, isolated LI loop and LI in three-loop assembly (LI, L3 and H3) obtained from Monte Carlo simulation. After the significant difference is detected, the specific inter-Ca distance which contributes to the difference is identified using EDMA.The estimated and improved mean forms of the conformational samples of isolated LI loop and LI loop in three-loop assembly, CDR loops of antibody binding site, are described using EDMA and distance geometry (DGEOM). To the best of our knowledge, it is the first time the EDMA methods are used to analyze conformational samples of molecules obtained from Monte Carlo simulations. Therefore, validations of the EDMA methods using both positive control and negative control tests for the conformational samples of isolated LI loop and LI in three-loop assembly must be done. The EDMA-I bootstrap null hypothesis tests showed false positive results for the comparison of six samples of the isolated LI loop and true positive results for comparison of conformational samples of isolated LI loop and LI in three-loop assembly. The bootstrap confidence interval tests revealed true negative results for comparisons of six samples of the isolated LI loop, and false negative results for the conformational comparisons between isolated LI loop and LI in three-loop assembly. Different conformational sample sizes are further explored by combining the samples of isolated LI loop to increase the sample size, or by clustering the sample using self-organizing map (SOM) to narrow the conformational distribution of the samples being comparedmolecular conformations. However, there is no improvement made for both bootstrap null hypothesis and confidence interval tests. These results show that more work is required before EDMA methods can be used reliably as a method for comparison of samples obtained by Monte Carlo simulations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We report the results of crystal structure, magnetization and resistivity measurements of Bi doped LaVO3. X-ray diffraction (XRD) shows that if doping Bi in the La site is less than ten percent, the crystal structure of La1-xBixVO3 remains unchanged and its symmetry is orthorhombic. However, for higher Bi doping (>10%) composite compounds are found where the XRD patterns are characterized by two phases: LaVO3+V2O3. Energy-dispersive analysis of the x-ray spectroscopy (EDAX) results are used to find a proper atomic percentage of all samples. The temperature dependence of the mass magnetization of pure and single phase doped samples have transition temperatures from paramagnetic to antiferromagnetic region at TN=140 K. This measurement for bi-phasic samples indicates two transition temperatures, at TN=140 K (LaVO3) and TN=170 K (V2O3). The temperature dependence of resistivity reveals semiconducting behavior for all samples. Activation energy values for pure and doped samples are extracted by fitting resistivity versus temperature data in the framework of thermal activation process.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectif : L'évaluation de l'acuité visuelle (AV) chez la personne âgée atteinte de troubles cognitifs peut être limitée par le manque de collaboration ou les difficultés de communication du patient. Très peu d'études ont examiné l'AV chez les patients atteints de déficits sévères de la cognition. L’objectif de cette étude était d’évaluer l'AV chez la personne âgée vulnérable ayant des troubles cognitifs à l'aide d'échelles variées afin de vérifier leur capacité à répondre à ces échelles. Méthodes: Trois groupes de 30 sujets chacun ont été recrutés. Le premier groupe était constitué de sujets jeunes (Moy.±ET: 24.9±3.5ans) et le second, de sujets âgés (70.0±4.5ans), ne présentant aucun trouble de la cognition ou de la communication. Le troisième groupe, composé de sujets atteints de démence faible à sévère (85.6±6.9ans), a été recruté au sein des unités de soins de longue durée de l’Institut Universitaire de Gériatrie de Montréal. Le test du Mini-Mental State Examination (MMSE) a été réalisé pour chaque sujet afin de déterminer leur niveau cognitif. L’AV de chaque participant a été mesurée à l’aide de six échelles validées (Snellen, cartes de Teller, ETDRS-lettres,-chiffres,-Patty Pics,-E directionnel) et présentées selon un ordre aléatoire. Des tests non paramétriques ont été utilisés afin de comparer les scores d’AV entre les différentes échelles, après une correction de Bonferroni-Holm pour comparaisons multiples. Résultats: Le score moyen au MMSE chez les sujets atteints de démence était de 9.8±7.5, alors qu’il était de 17.8±3.7 et 5.2±4.6 respectivement, chez les sujets atteints de démence faible à modérée (MMSE supérieur ou égal à 13; n=11) et sévère (MMSE inférieur à 13; n=19). Tous les sujets des groupes 1 et 2 ont répondu à chacune des échelles. Une grande majorité de sujets avec démence ont répondu à toutes les échelles (n=19) alors qu’un seul sujet n’a répondu à aucune échelle d’AV. Au sein du groupe 3, les échelles d’AV fournissant les scores les plus faibles ont été les cartes de Teller (20/65) et les Patty Pics (20/62), quelque soit le niveau cognitif du sujet, alors que les meilleurs scores d’AV ont été obtenus avec les échelles de Snellen (20/35) et les lettres ETDRS (20/36). Une grande proportion de sujets avec démence sévère ont répondu aux cartes de Teller (n=18) mais le score d’AV obtenu était le plus faible (20/73). Au sein des trois groupes, l’échelle de lettres-ETDRS était la seule dont les scores d’AV ne différaient pas de ceux obtenus avec l’échelle de Snellen traditionnelle. Conclusions: L’acuité visuelle peut être mesurée chez la personne âgée atteinte de troubles cognitifs ou de la communication. Nos résultats indiquent que les échelles les plus universelles, utilisant des lettres comme optotypes, peuvent être utilisées avec de bons résultats chez les personnes âgées atteintes de démence sévère. Nos résultats suggèrent de plus que la mesure d’acuité visuelle doit être tentée chez toutes les personnes, peu importe leur niveau cognitif.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les personnes atteintes de diabète sont plus à risque de développer la dépression, un fardeau additionnel dans leurs activités quotidiennes. Notre étude auprès d’adultes diabétiques résidant au Québec vise à en déterminer les caractéristiques lorsque la dépression fait partie du tableau clinique. Hypothèse 1: Les adultes québécois atteints de diabète et de dépression (dépression majeure et mineure) seront plus prédisposés à avoir des indicateurs reliés aux habitudes de vie, aux soins du diabète et à l’efficacité personnelle vis-à-vis du contrôle du poids et de la quantité d’aliments consommés, moins favorables que les sujets diabétiques sans dépression. Hypothèse 2: Chez les Québécois atteints de diabète de type 2, l’association entre la dépression et l’obésité sera affectée par les indicateurs de la Variation Cyclique du Poids (VCP) et de l’efficacité personnelle. Hypothèse 3: Chez les Québécois atteints de diabète de type 2, ceux qui auront développé ou maintenu une dépression au cours de 12 mois, seront plus susceptibles de détériorer les indicateurs reliés à leurs habitudes de vie et à leur efficacité personnelle. Des personnes diabétiques au Québec ont été recrutées à l’aide d’un sondage téléphonique. Des adultes, hommes et femmes, âgés de 18 à 80 ans étaient éligibles à participer. La dépression était déterminée par le questionnaire PHQ-9 « Patient Health Questionnaire-9 ». Au total, 3 221 individus ont été contactés au départ de l’étude; 2 003 ont participé à l’étude (93% type 2)et 1 234 ont participé au suivi de 12 mois. La prévalence de dépression mineure et majeure était de 10,9% et 8,7%, respectivement. Cinquante-trois pourcent des sujets avec dépression majeure avaient deux ou trois indicateurs malsains (tabagisme, inactivité ou obésité), 33% des sujets avaient une dépression mineure et 21% des sujets étaient non déprimés. Les résultats des analyses de régression logistique ont révélé que les sujets dépressifs étaient plus susceptibles d’être de sexe féminin, moins instruits, non mariés,sédentaires, fumeurs, percevaient plus souvent avoir une faible maîtrise du contrôle de la quantité d’aliments ingérés et tendaient davantage à mesurer leur glycémie au moins une fois par jour (p<0,05). Chez les patients avec le diabète de type 2, l’association entre la dépression et l’obésité a été affectée par les variables de la VCP et d’efficacité personnelle. Une année après le début de l’étude, 11,5% des sujets ont développé une dépression et 10% ont maintenu leur état dépressif. Les sujets ayant développé une dépression ou persisté dans leur état de dépression étaient plus susceptibles d’avoir été inactifs au début de l’étude ou d’être restés inactifs au suivi de 12 mois, et d’avoir maintenu une perception d’un faible contrôle de leur poids corporel et de la quantité d’aliments ingérés. Cependant, les changements de statut de dépression n’étaient pas associés à des changements de l’indice de masse corporelle. En conclusion, l’inactivité physique et une faible efficacité personnelle sont des facteurs importants dans le développement et la persistance de la dépression chez les patients diabétiques et méritent d’être considérés dans le traitement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche a bénéficié du soutien de plusieurs organismes. D’abord, je remercie le Conseil de recherche en sciences humaines du Canada (CRSH) de m’avoir accordé la bourse J.A. Bombardier – bourse de recherche pour la maitrise. Je remercie également le département de philosophie pour les quelques bourses de recherche et de voyage qui m’ont été offertes au cours de mes études de deuxième cycle au département. Je tiens finalement à exprimer ma gratitude envers le Groupe de recherche interuniversitaire en philosophie politique (GRIPP) pour son soutient financier ainsi que pour l’expérience enrichissante qu’il m’a promulgué. Une partie de ce mémoire a été présentée en avril 2012 à la Graduate Conference on Global Justice, tenue à la Gallatin School, New York University.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en criminologie

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les taux d’insécurité alimentaire (IA) chez les Premières Nations au Canada sont plus élevés que chez les Canadiens de la population générale. L’IA est généralement associée à des apports nutritionnels moins avantageux, toutefois peu d’études se sont penchées sur cette question pour les Premières Nations vivant sur-réserve. Le but de cette recherche est de déterminer, à partir de 550 observations, s’il existe une association entre le niveau de sécurité alimentaire et les apports nutritionnels chez des adultes (> 18 ans) des Premières Nations sur-réserve du Manitoba et d’identifier les types d’aliments qui pourraient expliquer les différences statistiquement significatives. Chez les hommes, aucune des différences statistiquement significatives entre les niveaux de sécurité alimentaire pourraient avoir un effet notable sur la santé nutritionnelle puisque les nutriments en question ne sont pas « à risque » dans la population. Chez les femmes, les apports sont significativement différents entre les niveaux de sécurité alimentaire pour quelques nutriments qui sont « à risque » dans la population. Pour les femmes de 19-30 ans en IA, les apports sont supérieurs en vitamine A, en folate et en calcium. En contraste, les apports sont inférieurs en vitamines A et B6 et en potassium pour les femmes de 31-50 ans en IA, et inférieurs en vitamine B6 pour les femmes de 51-70 ans en IA. Lorsque les apports sont ajustés pour les apports énergétiques, les différences demeurent seulement statistiquement significatives pour la vitamine B6 chez les femmes de 31-50 ans et 51-70 ans. Les groupes d’aliments potentiellement responsables des différences sont identifiés. En conclusion, chez les Premières Nations du Manitoba, peu d’associations statistiquement significatives ont été identifiées entre le niveau de sécurité alimentaire et les apports en nutriments considérés « à risque » dans la population. Ceci est particulièrement le cas après ajustement pour la multiplicité des tests statistiques effectués.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dielectric ceramics based on solid solution phases of [RE1_x= REr]TiNb06, where REI_s = Nd, Pr, Sm and RE' = Dy, Gd and Y, were prepared by the conventional solid-state ceramic route for values of x. The ceramic samples are characterized by X-ray diffraction and microwave methods. Ceramics based on RE (Pr, Nd and Sm) belonging to aeschynite group shows positive value of Tf and those based on RE (Gd, Dy and Y) belonging to euxenite group show negative value of r f. The solid solution phases between the aeschynite and the euxenite group shows intermediate dielectric constant and r f values. The results indicate the possibility of tailoring the dielectric properties by varying the composition of the solid solution phases. The range of solid solubility of euxenite in aeschenite and aeschenite in euxenite are different for different rare earth ions

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Learning Disability (LD) is a classification including several disorders in which a child has difficulty in learning in a typical manner, usually caused by an unknown factor or factors. LD affects about 15% of children enrolled in schools. The prediction of learning disability is a complicated task since the identification of LD from diverse features or signs is a complicated problem. There is no cure for learning disabilities and they are life-long. The problems of children with specific learning disabilities have been a cause of concern to parents and teachers for some time. The aim of this paper is to develop a new algorithm for imputing missing values and to determine the significance of the missing value imputation method and dimensionality reduction method in the performance of fuzzy and neuro fuzzy classifiers with specific emphasis on prediction of learning disabilities in school age children. In the basic assessment method for prediction of LD, checklists are generally used and the data cases thus collected fully depends on the mood of children and may have also contain redundant as well as missing values. Therefore, in this study, we are proposing a new algorithm, viz. the correlation based new algorithm for imputing the missing values and Principal Component Analysis (PCA) for reducing the irrelevant attributes. After the study, it is found that, the preprocessing methods applied by us improves the quality of data and thereby increases the accuracy of the classifiers. The system is implemented in Math works Software Mat Lab 7.10. The results obtained from this study have illustrated that the developed missing value imputation method is very good contribution in prediction system and is capable of improving the performance of a classifier.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Learning Disability (LD) is a neurological condition that affects a child’s brain and impairs his ability to carry out one or many specific tasks. LD affects about 15 % of children enrolled in schools. The prediction of LD is a vital and intricate job. The aim of this paper is to design an effective and powerful tool, using the two intelligent methods viz., Artificial Neural Network and Adaptive Neuro-Fuzzy Inference System, for measuring the percentage of LD that affected in school-age children. In this study, we are proposing some soft computing methods in data preprocessing for improving the accuracy of the tool as well as the classifier. The data preprocessing is performed through Principal Component Analysis for attribute reduction and closest fit algorithm is used for imputing missing values. The main idea in developing the LD prediction tool is not only to predict the LD present in children but also to measure its percentage along with its class like low or minor or major. The system is implemented in Mathworks Software MatLab 7.10. The results obtained from this study have illustrated that the designed prediction system or tool is capable of measuring the LD effectively