93 resultados para Akaike information
em Université de Lausanne, Switzerland
Multimodel inference and multimodel averaging in empirical modeling of occupational exposure levels.
Resumo:
Empirical modeling of exposure levels has been popular for identifying exposure determinants in occupational hygiene. Traditional data-driven methods used to choose a model on which to base inferences have typically not accounted for the uncertainty linked to the process of selecting the final model. Several new approaches propose making statistical inferences from a set of plausible models rather than from a single model regarded as 'best'. This paper introduces the multimodel averaging approach described in the monograph by Burnham and Anderson. In their approach, a set of plausible models are defined a priori by taking into account the sample size and previous knowledge of variables influent on exposure levels. The Akaike information criterion is then calculated to evaluate the relative support of the data for each model, expressed as Akaike weight, to be interpreted as the probability of the model being the best approximating model given the model set. The model weights can then be used to rank models, quantify the evidence favoring one over another, perform multimodel prediction, estimate the relative influence of the potential predictors and estimate multimodel-averaged effects of determinants. The whole approach is illustrated with the analysis of a data set of 1500 volatile organic compound exposure levels collected by the Institute for work and health (Lausanne, Switzerland) over 20 years, each concentration having been divided by the relevant Swiss occupational exposure limit and log-transformed before analysis. Multimodel inference represents a promising procedure for modeling exposure levels that incorporates the notion that several models can be supported by the data and permits to evaluate to a certain extent model selection uncertainty, which is seldom mentioned in current practice.
Resumo:
The localization of Last Glacial Maximum (LGM) refugia is crucial information to understand a species' history and predict its reaction to future climate changes. However, many phylogeographical studies often lack sampling designs intensive enough to precisely localize these refugia. The hairy land snail Trochulus villosus has a small range centred on Switzerland, which could be intensively covered by sampling 455 individuals from 52 populations. Based on mitochondrial DNA sequences (COI and 16S), we identified two divergent lineages with distinct geographical distributions. Bayesian skyline plots suggested that both lineages expanded at the end of the LGM. To find where the origin populations were located, we applied the principles of ancestral character reconstruction and identified a candidate refugium for each mtDNA lineage: the French Jura and Central Switzerland, both ice-free during the LGM. Additional refugia, however, could not be excluded, as suggested by the microsatellite analysis of a population subset. Modelling the LGM niche of T. villosus, we showed that suitable climatic conditions were expected in the inferred refugia, but potentially also in the nunataks of the alpine ice shield. In a model selection approach, we compared several alternative recolonization scenarios by estimating the Akaike information criterion for their respective maximum-likelihood migration rates. The 'two refugia' scenario received by far the best support given the distribution of genetic diversity in T. villosus populations. Provided that fine-scale sampling designs and various analytical approaches are combined, it is possible to refine our necessary understanding of species responses to environmental changes.
Resumo:
MOTIVATION: The analysis of molecular coevolution provides information on the potential functional and structural implication of positions along DNA sequences, and several methods are available to identify coevolving positions using probabilistic or combinatorial approaches. The specific nucleotide or amino acid profile associated with the coevolution process is, however, not estimated, but only known profiles, such as the Watson-Crick constraint, are usually considered a priori in current measures of coevolution. RESULTS: Here, we propose a new probabilistic model, Coev, to identify coevolving positions and their associated profile in DNA sequences while incorporating the underlying phylogenetic relationships. The process of coevolution is modeled by a 16 × 16 instantaneous rate matrix that includes rates of transition as well as a profile of coevolution. We used simulated, empirical and illustrative data to evaluate our model and to compare it with a model of 'independent' evolution using Akaike Information Criterion. We showed that the Coev model is able to discriminate between coevolving and non-coevolving positions and provides better specificity and specificity than other available approaches. We further demonstrate that the identification of the profile of coevolution can shed new light on the process of dependent substitution during lineage evolution.
Resumo:
OBJECTIVES: The aim of the study was to statistically model the relative increased risk of cardiovascular disease (CVD) per year older in Data collection on Adverse events of anti-HIV Drugs (D:A:D) and to compare this with the relative increased risk of CVD per year older in general population risk equations. METHODS: We analysed three endpoints: myocardial infarction (MI), coronary heart disease (CHD: MI or invasive coronary procedure) and CVD (CHD or stroke). We fitted a number of parametric age effects, adjusting for known risk factors and antiretroviral therapy (ART) use. The best-fitting age effect was determined using the Akaike information criterion. We compared the ageing effect from D:A:D with that from the general population risk equations: the Framingham Heart Study, CUORE and ASSIGN risk scores. RESULTS: A total of 24 323 men were included in analyses. Crude MI, CHD and CVD event rates per 1000 person-years increased from 2.29, 3.11 and 3.65 in those aged 40-45 years to 6.53, 11.91 and 15.89 in those aged 60-65 years, respectively. The best-fitting models included inverse age for MI and age + age(2) for CHD and CVD. In D:A:D there was a slowly accelerating increased risk of CHD and CVD per year older, which appeared to be only modest yet was consistently raised compared with the risk in the general population. The relative risk of MI with age was not different between D:A:D and the general population. CONCLUSIONS: We found only limited evidence of accelerating increased risk of CVD with age in D:A:D compared with the general population. The absolute risk of CVD associated with HIV infection remains uncertain.
Resumo:
Maximum entropy modeling (Maxent) is a widely used algorithm for predicting species distributions across space and time. Properly assessing the uncertainty in such predictions is non-trivial and requires validation with independent datasets. Notably, model complexity (number of model parameters) remains a major concern in relation to overfitting and, hence, transferability of Maxent models. An emerging approach is to validate the cross-temporal transferability of model predictions using paleoecological data. In this study, we assess the effect of model complexity on the performance of Maxent projections across time using two European plant species (Alnus giutinosa (L.) Gaertn. and Corylus avellana L) with an extensive late Quaternary fossil record in Spain as a study case. We fit 110 models with different levels of complexity under present time and tested model performance using AUC (area under the receiver operating characteristic curve) and AlCc (corrected Akaike Information Criterion) through the standard procedure of randomly partitioning current occurrence data. We then compared these results to an independent validation by projecting the models to mid-Holocene (6000 years before present) climatic conditions in Spain to assess their ability to predict fossil pollen presence-absence and abundance. We find that calibrating Maxent models with default settings result in the generation of overly complex models. While model performance increased with model complexity when predicting current distributions, it was higher with intermediate complexity when predicting mid-Holocene distributions. Hence, models of intermediate complexity resulted in the best trade-off to predict species distributions across time. Reliable temporal model transferability is especially relevant for forecasting species distributions under future climate change. Consequently, species-specific model tuning should be used to find the best modeling settings to control for complexity, notably with paleoecological data to independently validate model projections. For cross-temporal projections of species distributions for which paleoecological data is not available, models of intermediate complexity should be selected.
Resumo:
Cette thèse examine la circulation et l'intégration des informations scientifiques dans la pensée quotidienne d'après la théorie des représentations sociales (TRS). En tant qu'alternative aux approches traditionnelles de la communication de la science, les transformations survenant entre le discours scientifique et le discours de sens commun sont considérées comme adaptatives. Deux études sur la circulation des informations dans les media (études 1 et 2) montrent des variations dans les thèmes de discours exposés aux profanes, et parmi les discours de ceux-ci, en fonction de différentes sources. Ensuite, le processus d'ancrage dans le positionnement préalable envers la science est étudié, pour l'explication qu'il fournit de la réception et de la transmission d'informations scientifiques dans le sens commun. Les effets d'ancrage dans les attitudes et croyances préexistants sont reportés dans différents contextes de circulation des informations scientifiques (études 3 à 7), incluant des études de type corrélationnel, experimental et de terrain. Globalement, cette thèse procure des arguments en faveur de la pertinence de la TRS pour la recherche sur la communication de la science, et suggère des développements théoriques et méthodologiques pour ces deux domaines de recherche. Drawing on the social representations theory (SRT), this thesis examines the circulation and integration of scientific information into everyday thinking. As an alternative to the traditional approaches of science communication, it considers transformations between scientific and common-sense discourses as adaptive. Two studies, focused on the spreading of information into the media (Studies 1 and 2), show variations in the themes of discourses introduced to laypersons and in the themes among laypersons' discourses, according to different sources. Anchoring in prior positioning toward science is then studied for the explanation it provides on the reception and transmission of scientific information into common sense. Anchoring effects in prior attitudes and beliefs are reported in different contexts of circulation of scientific information (Studies 3 to 7) by using results from correlational, field, and experimental studies. Overall, this thesis provides arguments for the relevance of SRT in science communication research and suggests theoretical and methodological developments for both domains of research.
Resumo:
One of the key problems in conducting surveys is convincing people to participate.¦However, it is often difficult or impossible to determine why people refuse. Panel surveys¦provide information from previous waves that can offer valuable clues as to why people¦refuse to participate. If we are able to anticipate the reasons for refusal, then we¦may be able to take appropriate measures to encourage potential respondents to participate¦in the survey. For example, special training could be provided for interviewers¦on how to convince potential participants to participate.¦This study examines different influences, as determined from the previous wave,¦on refusal reasons that were given by the respondents in the subsequent wave of the¦telephone Swiss Household Panel. These influences include socio-demography, social¦inclusion, answer quality, and interviewer assessment of question understanding and¦of future participation. Generally, coefficients are similar across reasons, and¦between-respondents effects rather than within-respondents effects are significant.¦While 'No interest' reasons are easier to predict, the other reasons are more situational. Survey-specific issues are able to distinguish¦different reasons to some extent.
Resumo:
ABSTRACT: In order to evaluate the one-year evolution of web-based information on alcohol dependence, we re-assessed alcohol-related sites in July 2007 with the same evaluating tool that had been used to assess these sites in June 2006. Websites were assessed with a standardized form designed to rate sites on the basis of accountability, presentation, interactivity, readability, and content quality. The DISCERN scale was also used, which aimed to assist persons without content expertise in assessing the quality of written health publications. Scores were highly stable for all components of the form one year later (r = .77 to .95, p < .01). Analysis of variance for repeated measures showed no time effect, no interaction between time and scale, no interaction between time and group (affiliation categories), and no interaction between time, group, and scale. The study highlights lack of change of alcohol-dependence-related web pages across one year.
Resumo:
Immunotherapy, especially therapeutic vaccination, has a great deal of potential in the treatment of cancer and certain infectious diseases such as HIV (Allison et al., 2006; Fauci et al., 2008; Feldmann and Steinman, 2005). Numerous vaccine candidates have been tested in patients with a variety of tumor types and chronic viral diseases. Often, the best way to assess the clinical potential of these vaccines is to monitor the induced T cell response, and yet there are currently no standards for reporting these results. This letter is an effort to address this problem.
Resumo:
Résumé : Désormais, la lutte contre le blanchiment d'argent constitue une priorité pour les Etats et les gouvernements dans le but, d'une part, de préserver l'économie et l'intégrité des places financières et, d'autre part, de priver les organisations criminelles des ressources financières. Dans ce contexte, la préoccupation majeure des autorités algériennes en charge de la lutte contre ce phénomène est de mettre en place un dispositif capable de détecter les mécanismes de blanchiment, d'en évaluer la menace et sur la base de cette connaissance, de définir et de déployer les moyens de riposte les plus efficaces et efficients. Mais nous constatons que mener des enquêtes de blanchiment en conséquence à un crime sous-jacent a montré ses limites en matière d'établissement de preuves, d'élucidation d'affaires et de recouvrement des avoirs. Par ailleurs, nous pensons qu'il serait plus judicieux de mettre en place en amont un contrôle «systématique» des flux financiers et des opérations inhabituelles et/ou suspectes et de là, identifier d'éventuelles opérations de blanchiment, sans forcément connaître le crime initial, en veillant au maintien de l'équilibre entre le «tout sécuritaire» orienté vers la surveillance accrue des flux et la préservation de la vie privée et des libertés individuelles. Notre thèse apporte un regard critique sur le dispositif actuel de lutte contre le blanchiment existant en Algérie que nous évaluons et sur lequel nous relevons plusieurs lacunes. Pour répondre aux problèmes identifiés nous proposons des solutions stratégiques, organisationnelles, méthodologiques et technologiques intégrées dans un cadre opérationnel cohérent au niveau national et international.
Resumo:
L'hétérotopie sous-corticale en bandes ou double-cortex est une malformation cérébrale causée par une interruption de la migration des neurones du néocortex pendant sa formation. La souris HeCo est un modèle murin de cette affection, caractérisée par un amas de neurones corticaux dans la substance blanche sous-corticale. Les signes cliniques de cette maladie sont le plus souvent une épilepsie réfractaire, un retard développemental et mental. Chez l'homme, l'hétérotopie se trouve en partie en profondeur du cortex somatotopique moteur et sensitif et semble participer à leurs fonctions. L'IRM fonctionnelle a montré lors d'une tâche motrice (taper des doigts), l'activation en plus du cortex moteur controlatéral du cortex hétérotopique sous-jacent. La pathogenèse des malformations corticales est toujours mal comprise, c'est pourquoi il est important d'avoir plusieurs modèles animaux. Jusqu'il a peu, il n'existait que le rat TISH, découvert en 1997, dont la génétique n'est pas connue à ce jour. La souris HeCo est un nouveau modèle animal de malformation corticale dont le gène muté impliquant une protéine associée aux microtubules a été découvert récemment. Elle partage avec les cas humains un seuil épileptique abaissé et un certain retard développemental. Objectif : Déterminer si le cortex hétérotopique de la souris HeCo est activé lors d'une tâche sensitive (exploration de l'environnement à l'aide des vibrisses du museau). Méthode : Chez la souris, les vibrisses sont des organes sensitifs essentiels dans l'exploration de l'environnement. Pour déterminer si le cortex hétérotopique est actif lors d'une tâche sensitive, on utilisera donc un exercice de découverte d'une cage enrichie en stimulus. Afin de visualiser les régions du cerveau actives, on utilisera plusieurs méthodes: l'autoradiographie ([14C]2- deoxyglucose, 2-DG) et l'immunohistochimie c-Fos. Le 2-DG est un analogue du glucose qui se fixe dans les régions cérébrales métaboliquement actives, ici impliquées dans la sensibilité. Il est injecté dans le péritoine de la souris à jeun avant l'exploration. Le contrôle négatif se fera en coupant les vibrisses d'un côté avant la tâche sensitive. A la fin de la tâche, on prélève des coupes du cerveau pour mesurer l'autoradioactivité. L'immunohistochimie c-Fos est réalisée sur les cerveaux de souris ayant effectué la même tâche sensitive et détecte une protéine d'activation neuronale. Afin de détecter une activation de l'hétérotopie à plus long terme, on utilisera la cytochrome oxydase, une enzyme qui met en évidence les régions contenant beaucoup de mitochondries, donc métaboliquement très actives. Résultats : La cytochrome oxydase a marqué de façon égale le cortex homotopique de la souris HeCo et le cortex des souris contrôle. Par ailleurs, chez le mutant, elle a montré un faible marquage dans la partie médiale de l'hétérotopie et des zones de marquage plus intenses dans sa partie latérale. L'autoradiographie 2-DG a montré un pattern classique d'activation du cortex homotopique du côté stimulé, avec une intensité plus marquée dans la couche IV. Du même côté, l'hétérotopie latérale montre une intensité similaire à celui de la couche IV. Du côté non stimulé, on note une intensité faible, tant dans le cortex homotopique que dans le cortex hétérotopique. L'immunohistochimie c-Fos a montré une nette différence entre l'hémisphère stimulé et l'hémisphère non stimulé dans la couche IV comme dans l'hétérotopie. Il existe, tant du côté stimulé que du côté non stimulé, un gradient dans l'hétérotopie, le marquage latéral étant du même ordre que dans la couche IV alors qu'il est moins intense médialement. Conclusion : l'hétérotopie corticale latérale, située en particulier sous le cortex somatosensoriel, semble traiter l'information périphérique controlatérale dans le même ordre que le cortex homotopique.
Resumo:
Rapport de synthèse : Introduction : Internet est une source importante d'information sur la santé mentale. Le trouble bipolaire est communément associé à un handicap, des comorbidités, un faible taux d'introspection et une mauvaise compliance au traitement. Le fardeau de la maladie, de par les épisodes dépressifs et maniaques, peut conduire les personnes (dont le diagnostic de trouble bipolaire a été déjà posé ou non), ainsi que leur famille à rechercher des informations sur Internet. De ce fait, il est important que les sites Web traitant du sujet contiennent de l'information de haute qualité, basée sur les évidences scientifiques. Objectif.: évaluer la qualité des informations consultables sur Internat au sujet du trouble bipolaire et identifier des indicateurs de qualité. Méthode: deux mots-clés : « bipolar disorder » et « manic depressive illness » ont été introduits dans les moteurs de recherche les plus souvent utilisés sur Internet. Les sites Internet ont été évalués avec un formulaire standard conçu pour noter les sites sur la base de l'auteur (privé, université, entreprise,...), la présentation, l'interactivité, la lisibilité et la qualité du contenu. Le label de qualité « Health On the Net» (HON), et l'outil DISCERN ont été utilisés pour vérifier leur efficacité comme indicateurs de la qualité. Résultats: sur les 80 sites identifiés, 34 ont été inclus. Sur la base de la mesure des résultats, la qualité du contenu des sites s'est avérée être bonne. La qualité du contenu des sites Web qui traitent du trouble bipolaire est expliquée de manière significative par la lisibilité, la responsabilité et l'interactivité aussi bien que par un score global. Conclusions: dans l'ensemble, la qualité du contenu de l'étude des sites Web traitant du trouble bipolaire est de bonne qualité.