40 resultados para Graham-Paige (automerkki)

em Université de Lausanne, Switzerland


Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1. Species distribution modelling is used increasingly in both applied and theoretical research to predict how species are distributed and to understand attributes of species' environmental requirements. In species distribution modelling, various statistical methods are used that combine species occurrence data with environmental spatial data layers to predict the suitability of any site for that species. While the number of data sharing initiatives involving species' occurrences in the scientific community has increased dramatically over the past few years, various data quality and methodological concerns related to using these data for species distribution modelling have not been addressed adequately. 2. We evaluated how uncertainty in georeferences and associated locational error in occurrences influence species distribution modelling using two treatments: (1) a control treatment where models were calibrated with original, accurate data and (2) an error treatment where data were first degraded spatially to simulate locational error. To incorporate error into the coordinates, we moved each coordinate with a random number drawn from the normal distribution with a mean of zero and a standard deviation of 5 km. We evaluated the influence of error on the performance of 10 commonly used distributional modelling techniques applied to 40 species in four distinct geographical regions. 3. Locational error in occurrences reduced model performance in three of these regions; relatively accurate predictions of species distributions were possible for most species, even with degraded occurrences. Two species distribution modelling techniques, boosted regression trees and maximum entropy, were the best performing models in the face of locational errors. The results obtained with boosted regression trees were only slightly degraded by errors in location, and the results obtained with the maximum entropy approach were not affected by such errors. 4. Synthesis and applications. To use the vast array of occurrence data that exists currently for research and management relating to the geographical ranges of species, modellers need to know the influence of locational error on model quality and whether some modelling techniques are particularly robust to error. We show that certain modelling techniques are particularly robust to a moderate level of locational error and that useful predictions of species distributions can be made even when occurrence data include some error.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Predictive species distribution modelling (SDM) has become an essential tool in biodiversity conservation and management. The choice of grain size (resolution) of environmental layers used in modelling is one important factor that may affect predictions. We applied 10 distinct modelling techniques to presence-only data for 50 species in five different regions, to test whether: (1) a 10-fold coarsening of resolution affects predictive performance of SDMs, and (2) any observed effects are dependent on the type of region, modelling technique, or species considered. Results show that a 10 times change in grain size does not severely affect predictions from species distribution models. The overall trend is towards degradation of model performance, but improvement can also be observed. Changing grain size does not equally affect models across regions, techniques, and species types. The strongest effect is on regions and species types, with tree species in the data sets (regions) with highest locational accuracy being most affected. Changing grain size had little influence on the ranking of techniques: boosted regression trees remain best at both resolutions. The number of occurrences used for model training had an important effect, with larger sample sizes resulting in better models, which tended to be more sensitive to grain. Effect of grain change was only noticeable for models reaching sufficient performance and/or with initial data that have an intrinsic error smaller than the coarser grain size.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(Résumé de l'ouvrage) This collection of studies in honor of François Bovon highlights the rich diversity found within early expressions of Christianity as evidenced in ancient texts, traditions, symbols, and motifs. Old labels like 'apocrypha' or 'heresy' that for centuries have suppressed much of this evidence are removed, previous assumptions are questioned, and the old data are examined afresh along with the latest discoveries. The studies fall into six areas: ancient gospels, acts, early Christian movements, ancient interpretations, art, and manuscripts. Contributors include James Robinson, Helmut Koester, Harold Attridge, Karen King, and Jean-Daniel Kaestli.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background: Recently, more clinical trials are being conducted in Africa and Asia, therefore, background morbidity in the respective populations is of interest. Between 2000 and 2007, the International AIDS Vaccine Initiative sponsored 19 Phase 1 or 2A preventive HIV vaccine trials in the US, Europe, Sub-Saharan Africa and India, enrolling 900 healthy HIV-1 uninfected volunteers.   Objective To assess background morbidity as reflected by unsolicited adverse events (AEs), unrelated to study vaccine, reported in clinical trials from four continents. Methods All but three clinical trials were double-blind, randomized, and placebo-controlled. Study procedures and data collection methods were standardized. The frequency and severity of AEs reported during the first year of the trials were analyzed. To avoid confounding by vaccine-related events, solicited reactogenicity and other AEs occurring within 28 d after any vaccination were excluded. Results In total, 2134 AEs were reported by 76% of all participants; 73% of all events were mild. The rate of AEs did not differ between placebo and vaccine recipients. Overall, the percentage of participants with any AE was higher in Africa (83%) compared with Europe (71%), US (74%) and India (65%), while the percentage of participants with AEs of moderate or greater severity was similar in all regions except India. In all regions, the most frequently reported AEs were infectious diseases, followed by gastrointestinal disorders. Conclusions Despite some regional differences, in these healthy participants selected for low risk of HIV infection, background morbidity posed no obstacle to clinical trial conduct and interpretation. Data from controlled clinical trials of preventive interventions can offer valuable insights into the health of the eligible population.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

IMPORTANCE: The 2013 American College of Cardiology/American Heart Association (ACC/AHA) guidelines introduced a prediction model and lowered the threshold for treatment with statins to a 7.5% 10-year hard atherosclerotic cardiovascular disease (ASCVD) risk. Implications of the new guideline's threshold and model have not been addressed in non-US populations or compared with previous guidelines. OBJECTIVE: To determine population-wide implications of the ACC/AHA, the Adult Treatment Panel III (ATP-III), and the European Society of Cardiology (ESC) guidelines using a cohort of Dutch individuals aged 55 years or older. DESIGN, SETTING, AND PARTICIPANTS: We included 4854 Rotterdam Study participants recruited in 1997-2001. We calculated 10-year risks for "hard" ASCVD events (including fatal and nonfatal coronary heart disease [CHD] and stroke) (ACC/AHA), hard CHD events (fatal and nonfatal myocardial infarction, CHD mortality) (ATP-III), and atherosclerotic CVD mortality (ESC). MAIN OUTCOMES AND MEASURES: Events were assessed until January 1, 2012. Per guideline, we calculated proportions of individuals for whom statins would be recommended and determined calibration and discrimination of risk models. RESULTS: The mean age was 65.5 (SD, 5.2) years. Statins would be recommended for 96.4% (95% CI, 95.4%-97.1%; n = 1825) of men and 65.8% (95% CI, 63.8%-67.7%; n = 1523) of women by the ACC/AHA, 52.0% (95% CI, 49.8%-54.3%; n = 985) of men and 35.5% (95% CI, 33.5%-37.5%; n = 821) of women by the ATP-III, and 66.1% (95% CI, 64.0%-68.3%; n = 1253) of men and 39.1% (95% CI, 37.1%-41.2%; n = 906) of women by ESC guidelines. With the ACC/AHA model, average predicted risk vs observed cumulative incidence of hard ASCVD events was 21.5% (95% CI, 20.9%-22.1%) vs 12.7% (95% CI, 11.1%-14.5%) for men (192 events) and 11.6% (95% CI, 11.2%-12.0%) vs 7.9% (95% CI, 6.7%-9.2%) for women (151 events). Similar overestimation occurred with the ATP-III model (98 events in men and 62 events in women) and ESC model (50 events in men and 37 events in women). The C statistic was 0.67 (95% CI, 0.63-0.71) in men and 0.68 (95% CI, 0.64-0.73) in women for hard ASCVD (ACC/AHA), 0.67 (95% CI, 0.62-0.72) in men and 0.69 (95% CI, 0.63-0.75) in women for hard CHD (ATP-III), and 0.76 (95% CI, 0.70-0.82) in men and 0.77 (95% CI, 0.71-0.83) in women for CVD mortality (ESC). CONCLUSIONS AND RELEVANCE: In this European population aged 55 years or older, proportions of individuals eligible for statins differed substantially among the guidelines. The ACC/AHA guideline would recommend statins for nearly all men and two-thirds of women, proportions exceeding those with the ATP-III or ESC guidelines. All 3 risk models provided poor calibration and moderate to good discrimination. Improving risk predictions and setting appropriate population-wide thresholds are necessary to facilitate better clinical decision making.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With advances in the effectiveness of treatment and disease management, the contribution of chronic comorbid diseases (comorbidities) found within the Charlson comorbidity index to mortality is likely to have changed since development of the index in 1984. The authors reevaluated the Charlson index and reassigned weights to each condition by identifying and following patients to observe mortality within 1 year after hospital discharge. They applied the updated index and weights to hospital discharge data from 6 countries and tested for their ability to predict in-hospital mortality. Compared with the original Charlson weights, weights generated from the Calgary, Alberta, Canada, data (2004) were 0 for 5 comorbidities, decreased for 3 comorbidities, increased for 4 comorbidities, and did not change for 5 comorbidities. The C statistics for discriminating in-hospital mortality between the new score generated from the 12 comorbidities and the Charlson score were 0.825 (new) and 0.808 (old), respectively, in Australian data (2008), 0.828 and 0.825 in Canadian data (2008), 0.878 and 0.882 in French data (2004), 0.727 and 0.723 in Japanese data (2008), 0.831 and 0.836 in New Zealand data (2008), and 0.869 and 0.876 in Swiss data (2008). The updated index of 12 comorbidities showed good-to-excellent discrimination in predicting in-hospital mortality in data from 6 countries and may be more appropriate for use with more recent administrative data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIVES: To determine the prevalence of aortic valve dysfunction, aortic dilation, and aortic valve and ascending aortic intervention in adults with coarctation of the aorta (CoA). BACKGROUND: Aortic valve dysfunction and aortic dilation are rare among children and adolescents with CoA. With longer follow-up, adults may be more likely to have progressive disease. METHODS: We retrospectively reviewed all adults with CoA, repaired or unrepaired, seen at our center between 2004 and 2010. RESULTS: Two hundred sixteen adults (56.0% male) with CoA were identified. Median age at last evaluation was 28.3 (range 18.0 to 75.3) years. Bicuspid aortic valve (BAV) was present in 65.7%. At last follow-up, 3.2% had moderate or severe aortic stenosis, and 3.7% had moderate or severe aortic regurgitation. Dilation of the aortic root or ascending aorta was present in 28.0% and 41.6% of patients, respectively. Moderate or severe aortic root or ascending aortic dilation (z-score > 4) was present in 8.2% and 13.7%, respectively. Patients with BAV were more likely to have moderate or severe ascending aortic dilation compared with those without BAV (19.5% vs. 0%; P < 0.001). Age was associated with ascending aortic dilation (P = 0.04). At most recent follow-up, 5.6% had undergone aortic valve intervention, and 3.2% had aortic root or ascending aortic replacement. CONCLUSION: In adults with CoA, significant aortic valve dysfunction and interventions during early adulthood were uncommon. However, aortic dilation was prevalent, especially of the ascending aorta, in patients with BAV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1. Aim - Concerns over how global change will influence species distributions, in conjunction with increased emphasis on understanding niche dynamics in evolutionary and community contexts, highlight the growing need for robust methods to quantify niche differences between or within taxa. We propose a statistical framework to describe and compare environmental niches from occurrence and spatial environmental data.¦2. Location - Europe, North America, South America¦3. Methods - The framework applies kernel smoothers to densities of species occurrence in gridded environmental space to calculate metrics of niche overlap and test hypotheses regarding niche conservatism. We use this framework and simulated species with predefined distributions and amounts of niche overlap to evaluate several ordination and species distribution modeling techniques for quantifying niche overlap. We illustrate the approach with data on two well-studied invasive species.¦4. Results - We show that niche overlap can be accurately detected with the framework when variables driving the distributions are known. The method is robust to known and previously undocumented biases related to the dependence of species occurrences on the frequency of environmental conditions that occur across geographic space. The use of a kernel smoother makes the process of moving from geographical space to multivariate environmental space independent of both sampling effort and arbitrary choice of resolution in environmental space. However, the use of ordination and species distribution model techniques for selecting, combining and weighting variables on which niche overlap is calculated provide contrasting results.¦5. Main conclusions - The framework meets the increasing need for robust methods to quantify niche differences. It is appropriate to study niche differences between species, subspecies or intraspecific lineages that differ in their geographical distributions. Alternatively, it can be used to measure the degree to which the environmental niche of a species or intraspecific lineage has changed over time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Infectious and inflammatory diseases have repeatedly shown strong genetic associations within the major histocompatibility complex (MHC); however, the basis for these associations remains elusive. To define host genetic effects on the outcome of a chronic viral infection, we performed genome-wide association analysis in a multiethnic cohort of HIV-1 controllers and progressors, and we analyzed the effects of individual amino acids within the classical human leukocyte antigen (HLA) proteins. We identified >300 genome-wide significant single-nucleotide polymorphisms (SNPs) within the MHC and none elsewhere. Specific amino acids in the HLA-B peptide binding groove, as well as an independent HLA-C effect, explain the SNP associations and reconcile both protective and risk HLA alleles. These results implicate the nature of the HLA-viral peptide interaction as the major factor modulating durable control of HIV infection.