1000 resultados para statistique Bayesienne


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Formées lors de l’effondrement gravitationnel d’un nuage de gaz moléculaire, les étoiles naissantes auront différentes masses variant entre 0.08 et environ 100M . La majorité de la population stellaire de la Galaxie est constituée d’étoiles dont la masse est inférieure à environ 0.6 M . Le dernier évènement de formation stellaire dans le voisinage solaire s’est produit dans la bulle locale il y a au plus 100 millions d’années, vraisemblablement provoqué par le passage d’une onde de choc dans le bras local de la Galaxie. C’est ainsi que se formèrent de jeunes associations d’étoiles dont les membres se caractérisent en particulier par une vitesse spatiale et une position commune dans la Galaxie. Les associations jeunes étant peu densément peuplées et relativement proches du Soleil, leurs membres se font plutôt rares et dispersés sur toute la voûte céleste. Jusqu’à présent, surtout les étoiles les plus massives (brillantes) ont été répertoriées. Les étoiles jeunes de faible masse, constituant la majorité de la population, restent pour la plupart à être identifiées. Les étoiles jeunes de faible masse représentent une population clef pour contraindre les modèles évolutifs des étoiles M et des naines brunes. Elles sont également d’excellentes candidates pour chercher des exoplanètes via les techniques d’imagerie directe. Ce mémoire présente une nouvelle méthode utilisant un modèle cinématique enrichi d’une analyse statistique Bayesienne pour identifier des étoiles jeunes de faible masse dans les associations beta Pictoris, Tucana-Horologium et AB Doradus. À partir d’un échantillon de 1080 étoiles K et M, toutes comportant des indicateurs de jeunesse tels l’émission Halpha et une forte luminosité dans les rayons X, leurs propriétés cinématiques (mouvement propre) et photométriques sont analysées pour en extraire 98 candidates hautement probables membres d’une des trois associations. Une confirmation de leur statut comme membre nécessitera en particulier une mesure de leur vitesse radiale (prédit par notre analyse) et une mesure de la largeur équivalente du lithium à 6708 Å pour mieux contraindre leur âge.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les séquences protéiques naturelles sont le résultat net de l’interaction entre les mécanismes de mutation, de sélection naturelle et de dérive stochastique au cours des temps évolutifs. Les modèles probabilistes d’évolution moléculaire qui tiennent compte de ces différents facteurs ont été substantiellement améliorés au cours des dernières années. En particulier, ont été proposés des modèles incorporant explicitement la structure des protéines et les interdépendances entre sites, ainsi que les outils statistiques pour évaluer la performance de ces modèles. Toutefois, en dépit des avancées significatives dans cette direction, seules des représentations très simplifiées de la structure protéique ont été utilisées jusqu’à présent. Dans ce contexte, le sujet général de cette thèse est la modélisation de la structure tridimensionnelle des protéines, en tenant compte des limitations pratiques imposées par l’utilisation de méthodes phylogénétiques très gourmandes en temps de calcul. Dans un premier temps, une méthode statistique générale est présentée, visant à optimiser les paramètres d’un potentiel statistique (qui est une pseudo-énergie mesurant la compatibilité séquence-structure). La forme fonctionnelle du potentiel est par la suite raffinée, en augmentant le niveau de détails dans la description structurale sans alourdir les coûts computationnels. Plusieurs éléments structuraux sont explorés : interactions entre pairs de résidus, accessibilité au solvant, conformation de la chaîne principale et flexibilité. Les potentiels sont ensuite inclus dans un modèle d’évolution et leur performance est évaluée en termes d’ajustement statistique à des données réelles, et contrastée avec des modèles d’évolution standards. Finalement, le nouveau modèle structurellement contraint ainsi obtenu est utilisé pour mieux comprendre les relations entre niveau d’expression des gènes et sélection et conservation de leur séquence protéique.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'objet de ce travail est l'évaluation de l'activité de radionucléides présents à l'état de traces, par exemple dans l'environnement. Lorsque les mesures sont de courte durée, ou si les sources sont peu actives, l'analyse statistique standard ne donne plus une estimation fiable de l'activité et de son incertitude. L'introduction du concept bayesien d'a priori permet de modéliser l'information à disposition de l'observateur avant qu'il effectue la mesure. Cette information conduit à une estimation plus cohérente des grandeurs physiques recherchées. Le cadre de la théorie est tout d'abord présenté, définissant les concepts d'état, d'observation et de décision. La mesure physique est traduite par un modèle statistique qui est une probabilité de transition des états vers les observations. L'information de Fisher et celle de Shannon-Kullback sont introduites dans le but d'obtenir les a priori nécessaires au théorème de Bayes. Les modèles propres à la mesure de la radioactivité sont ensuite traités. Si l'on peut considérer l'activité comme constante, le modèle est celui de Poisson et conduit à des a priori de type gamma. Pour les grandes activités, ces deux lois se rapprochent des gaussiennes et l'on retrouve l'analyse statistique classique. Lorsque la décroissance du nombre de noyaux n'est plus négligeable, ou lors de l'évaluation de certains temps d'attente, d'autres modèles sont développés. Quelques applications sont présentées ensuite, notamment une définition cohérente des intervalles de confiance et l'estimation de l'activité de radionucléides à schéma complexe par spectrométrie gamma, où l'obtention de tout un spectre permet une analyse multidimensionnelle. Le paradigme bayesien conduit à une répartition complète et globale pour l'état du système physique mesuré. L'observateur obtient ainsi la meilleure estimation possible de l'état basée sur son modèle d'expérience et l'information préalable en sa possession.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

On connaît le manque de données permettant de s'assurer que les prestations prises en charge par la LAMal sont adéquates, efficaces et économiques. L'Office fédéral de la santé publique (OFSP) a décidé de proposer et faire valider quelques nouveaux indicateurs. Le but du présent article est de présenter les projets qui vont être mis en oeuvre entre l'été 2008 et 2011. [Intertitres] Identification des maladies. Episodes ambulatoires. Mesure de l'impact des soins sur l'état de santé. Prévention. Etablissement de profils de pratique médicaux. Hospitalisations potentiellement évitables. Calendrier et coût des projets.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Within the framework of a retrospective study of the incidence of hip fractures in the canton of Vaud (Switzerland), all cases of hip fracture occurring among the resident population in 1986 and treated in the hospitals of the canton were identified from among five different information sources. Relevant data were then extracted from the medical records. At least two sources of information were used to identify cases in each hospital, among them the statistics of the Swiss Hospital Association (VESKA). These statistics were available for 9 of the 18 hospitals in the canton that participated in the study. The number of cases identified from the VESKA statistics was compared to the total number of cases for each hospital. For the 9 hospitals the number of cases in the VESKA statistics was 407, whereas, after having excluded diagnoses that were actually "status after fracture" and double entries, the total for these hospitals was 392, that is 4% less than the VESKA statistics indicate. It is concluded that the VESKA statistics provide a good approximation of the actual number of cases treated in these hospitals, with a tendency to overestimate this number. In order to use these statistics for calculating incidence figures, however, it is imperative that a greater proportion of all hospitals (50% presently in the canton, 35% nationwide) participate in these statistics.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

On présente les résultats de survie pour 22 localisations choisies. Les collectifs étudiés comprennent environ 80% de l'ensemble des cas nouveaux (incidents) recensés par le Registre vaudois des tumeurs entre 1974 et 1980 dans le canton de Vaud. Chaque type ou groupe de tumeurs est décrit en fonction du sexe, de l'âge, du type histologique et de l'expérience de survie globale brute ou corrigée jusqu'à cinq ans. De plus, des analyses de survie plus détaillées, notamment par sous-localisation ou type morphologique sont rapportées pour le côlon, les poumons, les mélanomes cutanés, les testicules et les leucémies. Les taux corrigés à cinq ans sont confrontés, dans un tableau synthétique, avec ceux de Genève, de Finlande, de Norvège, de Nouvelle-Zélande et du SEER (Surveillance, Epidemiology and End Results) pour les blancs des USA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

[Table des matières] 1. Introduction. 2. Analyse des files actives 2001 et 2007. 2.1 Comparaison des 3 groupes d'usagesrs dans les deux files actives. 3. Trajectoire des patients présents en 2001. 3.1 Continuité et arrêts de traitements. 4. Analyse de survie: durées de traitement de substitution et des interruptions. 5. Annexe.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le bassin du Rhône à l'amont du Léman peut être sujet à de fortes précipitations en mesure de provoquer des crues significatives. L'objectif du projet MINERVE dans lequel s'inscrit le présent travail consiste à fournir des outils pour la prévision et la gestion des crues par des actions préventives sur les aménagements hydroélectriques à accumulation. Pour satisfaire ce dernier, il est nécessaire de prévoir au mieux les cumuls de précipitations pour les jours suivants. Ceci est actuellement effectué par le modèle numérique de prévision de MétéoSuisse ; mais, en raison des grandes incertitudes liées à la quantification des événements extrêmes, il a été décidé qu'une approche parallèle de nature statistique pourrait compléter l'information disponible. Ainsi, nous avons adapté la méthode des analogues, qui est une technique de prévision statistique des précipitations, au contexte alpin du bassin d'étude. Pour ce faire, plusieurs paramétrisations de la méthode ont été documentées et calibrées. Afin de prendre en main la méthode, nous avons effectué de multiples analyses paramétriques sur les variables synoptiques, mais également sur la constitution de groupements pluviométriques. Une partie conséquente de cette étude a été consacrée à la programmation d'un logiciel de prévision automatique par la méthode des analogues, ainsi qu'à un outil de visualisation des résultats sous forme de cartes et graphiques. Ce logiciel, nommé Atmoswing, permet d'implémenter un grand nombre de méthodes différentes de prévision par analogie. L'outil est opérationnel depuis mi-2011 et nous a permis de confirmer l'intérêt de la prévision par analogie. La méthode étant ici appliquée à un nouveau contexte, un grand nombre de variables synoptiques ont été évaluées. Nous avons alors confirmé l'intérêt des deux niveaux d'analogie sur la circulation atmosphérique et sur le flux d'humidité, tout en apportant des améliorations à celles-ci. Il en résulte des paramétrisations présentant des scores de performance supérieurs aux méthodes de référence considérées. Nous avons également évalué d'autres améliorations, comme l'introduction d'une fenêtre temporelle glissante afin de rechercher de meilleures analogies synoptiques à d'autres heures de la journée, ce qui s'est avéré intéressant, tout comme une prévision infrajournalière à pas de temps de 6 h. Finalement, nous avons introduit une technique d'optimisation globale, les algorithmes génétiques, capable de calibrer la méthode des analogues en considérant tous les paramètres des différents niveaux d'analogie de manière conjointe. Avec cette technique, nous pouvons nous approcher objectivement d'une paramétrisation optimale. Le choix des niveaux atmosphériques et des fenêtres temporelles et spatiales étant automatisé, cette technique peut engendrer un gain de temps, même si elle est relativement exigeante en calculs. Nous avons ainsi pu améliorer la méthode des analogues, et y ajouter de nouveaux degrés de liberté, notamment des fenêtres spatiales et des pondérations différenciées selon les niveaux atmosphériques retenus.