519 resultados para Erreur d’estimation
Resumo:
[Note : Le ms. X de Mouchet, contenant différents ouvrages de Christine des Pisan (XVe s., parch, porte aujourd'hui le n° 12779 du fonds français (anc. Suppl. fr. 6259). — Il faut lire XI et non XII. Le n° XII n'existe pas ; le relieur avait considéré par erreur le ms. 1686 comme formant le premier volume de copies des chansons de Berne (n° 1687)].
Resumo:
Introduction : L'équipe mobile de soins palliatifs intra hospitalière (EMSP) du Centre Hospitalier Universitaire Vaudois (CHUV) a été mise en place en 1996. Il s'agit d'une des premières équipes interdisciplinaire de consultants mise à disposition d'un hôpital tertiaire. Le CHUV est l'hôpital de proximité de la ville de Lausanne (850 lits) mais aussi un hôpital de référence pour le reste du canton. En 2007, il y a eu 38'359 patients hospitalisés au CHUV. Les facteurs d'évaluation du taux d'utilisation d'une équipe mobile de soins palliatifs consultantes sont variés et complexes. Plusieurs méthodes sont décrites dans la littérature pour tenter de répondre à cette problématique. Avant de pouvoir évaluer l'utilisation de notre équipe mobile consultante de soins palliatifs intra hospitalière, il nous est apparu nécessaire de mieux décrire et définir la population qui meurt dans notre institution. McNamara et collègues ont proposé des critères qui classifient une population palliative comme « minimale », « intermédiaire » ou « maximale ». L'objectif de cette étude est de déterminer le taux de patients décédés au CHUV sur une période de 4 mois (Γ1 février au 31 mai 2007) suivie par notre EMSP en utilisant la méthode de classification «minimal » et « maximal ». Méthode : les archives médicales du CHUV ont été analysées pour chaque patient adulte décédé pendant la période sélectionnée. Les populations « maximal » et « minimal » de ces patients ont été ensuite déterminées selon des critères basés sur les codes diagnostiques figurants sur les certificats de décès. De ces deux populations, nous avons identifié à partir de notre base de données, les patients qui ont été suivie par notre EMSP. Le CHUV utilise les mêmes codes diagnostiques (International Classification of Disease, ICD) que ceux utilisés dans la classification de McNamara. Une recherche pilote effectuée dans les archives médicales du CHUV manuellement en analysant en profondeur l'ensemble du dossier médical a révélé que la classification de la population « minimal » pouvait être biaisée notamment en raison d'une confusion entre la cause directe du décès (complication d'une maladie) et la maladie de base. Nous avons estimé le pourcentage d'erreur de codification en analysé un échantillon randomisé de patients qui remplissait les critères « minimal ». Résultats : sur un total de 294 décès, 263 (89%) remplissaient initialement les critères « maximal » et 83 (28%) les critères «minimal», l'analyse de l'échantillon randomisé de 56 dossiers de patients sur les 180 qui ne remplissaient pas les critères « minimal » ont révélé que 21 (38%) auraient dus être inclus dans la population « minimal ». L'EMSP a vu 67/263 (25.5%) de la population palliative « maximal » et 56/151 (37.1%) de la population palliative « minimal ». Conclusion : cette étude souligne l'utilité de la méthode proposée par McNamara pour déterminer la population de patients palliatifs. Cependant, notre travail illustre aussi une limite importante de l'estimation de la population « minima » en lien avec l'imprécision des causes de décès figurant sur les certificats de décès de notre institution. Nos résultats mettent aussi en lumière que l'EMSP de notre institution est clairement sous- utilisée. Nous prévoyons une étude prospective de plus large envergure utilisant la même méthodologie afin d'approfondir les résultats de cette étude pilote.
Resumo:
RÉSUME Les techniques de résection muqueuse endoscopique utilisées actuellement ne permettent pas d'effectuer une résection circonférentielle d'un long segment de muqueuse oesophagienne. Une telle résection permettrait le traitement de foyers multicentriques de dysplasies de haut grade (HGIN) ou d'adénocarcinomes précoces (AC) développés sur oesophage de Barrett. Sachant que la prévalence des métastases ganglionnaires régionales est d'environ 7 % pour les adénocarcinomes intra-muqueux (Tis,T1a), les méthodes de traitement non-chirurgicales et moins invasives sont actuellement préférées à une oesophagectomie, dont la morbidité et la mortalité restent élevées en comparaison avec les mucosectomies endoscopiques. Un oesophagoscope rigide modifié a été développé à Lausanne en collaboration avec la maison Karl Storz GmbH, de façon à permettre des résections muqueuses étendues dans l'oesophage. Cette étude animale pilote a investigué la faisabilité et la fiabilité des résections muqueuses circonférentielles de différentes longueurs dans l'oesophage du mouton. Des résections circonférentielles de 2,2 cm (n=6), 3,3 cm (n=6), 4,4 cm (n=7) et 5,5 cm (n=5) de longueur ont été effectuées dans l'oesophage de 24 moutons. Elles consistaient en 2 mucosectomies hémi-circonférentielles opposées. Les animaux ont été suivis par des examens endoscopiques à une semaine puis chaque mois pendant 6 mois ou jusqu'à réépithélialisation complète sans sténose. Au cours du processus de guérison, les sténoses cicatricielles ont été traitées par une ou plusieurs dilatations avec les bougies de Savary. Des résections circonférentielles de 2,2 à 5,5 cm de longueur ont été réalisées avec succès dans 23/24 des cas. Une seule perforation, secondaire à une erreur de manipulation, est survenue directement après la mucosectomie. A l'analyse histologique, une profondeur de résection précise à travers la sousmuq Tyrp1ueuse a été obtenue dans 85% des specimens. Les sténoses cicatricielles ont été contrôlées dans 95% des cas par dilatations avec les bougies de Savary. L'oesophagoscope rigide modifié a permis de réaliser des résections muqueuses circonférentielles et étendues en une seule séance endoscopique d'une durée de moins d'une demi-heure. L'utilisation de ce résectoscope chez l'homme devrait permettre l'éradication complète de l'oesophage de Barrett avec HGIN et/ou AC précoce dans un avenir très proche.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
Learning is the ability of an organism to adapt to the changes of its environment in response to its past experience. It is a widespread ability in the animal kingdom, but its evolutionary aspects are poorly known. Learning ability is supposedly advantageous under some conditions, when environmental conditions are not too stable - because in this case there is no need to learn to predict any event in the environment - and not changing too fast - otherwise environmental cues cannot be used because they are not reliable. Nevertheless, learning ability is also known to be costly in terms of energy needed for neuronal synthesis, memory formation, initial mistakes. During my PhD, I focused on the study of genetic variability of learning ability in natural populations. Genetic variability is the basis on which natural selection and genetic drift can act. How does learning ability vary in nature? What are the roles of additive genetic variation or maternal effects in this variation? Is it involved in evolutionary trade-offs with other fitness-related traits?¦I investigated a natural population of fruit fly, Drosophila melanogaster, as a model organism. Its learning ability is easy to measure with associative memory tests. I used two research tools: multiple inbred and isofemale lines derived from a natural population as a representative sample. My work was divided into three parts.¦First, I investigated the effects of inbreeding on aversive learning (avoidance of an odor previously associated with mechanical shock). While the inbred lines consistently showed reduced egg-to-adult viability by 28 %, the effects of inbreeding on learning performance was 18 % and varied among assays, with a trend to be most pronounced for intermediate conditioning intensity. Variation among inbred lines indicates that ample genetic variance for learning was segregating in the base population, and suggests that the inbreeding depression observed in learning performance was mostly due to dominance rather than overdominance. Across the inbred lines, learning performance was positively correlated with the egg-to-adult viability. This positive genetic correlation contradicts previous studies which observed a trade-off between learning ability and lifespan or larval competitive ability. It suggests that much of the genetic variation for learning is due to pleiotropic effects of genes affecting other functions related to survival. Together with the overall mild effects of inbreeding on learning performance, this suggests that genetic variation specifically affecting learning is either very low, or is due to alleles with mostly additive (semi-dominant) effects. It also suggests that alleles reducing learning performance are on average partially recessive, because their effect does not appear in the outbred base population. Moreover, overdominance seems unlikely as major cause of the inbreeding depression, because even if the overall mean of the inbred line is smaller than the outbred base population, some of the inbred lines show the same learning score as the outbred base population. If overdominance played an important part in inbreeding depression, then all the homozygous lines should show lower learning ability than¦outbred base population.¦In the second part of my project, I sampled the same natural population again and derived isofemale lines (F=0.25) which are less adapted to laboratory conditions and therefore are more representative of the variance of the natural population. They also showed some genetic variability for learning, and for three other fitness-related traits possibly related with learning: resistance to bacterial infection, egg-to-adult viability and developmental time. Nevertheless, the genetic variance of learning ability did not appear to be smaller than the variance of the other traits. The positive correlation previously observed between learning ability and egg- to-adult viability did not appear in isofemale lines (nor a negative correlation). It suggests that there was still genetic variability within isofemale lines and that they did not fix the highly deleterious pleiotropic alleles possibly responsible for the previous correlation.¦In order to investigate the relative amount of nuclear (additive and non-additive effects) and extra-nuclear (maternal and paternal effect) components of variance in learning ability and other fitness-related traits among the inbred lines tested in part one, I performed a diallel cross between them. The nuclear additive genetic variance was higher than other components for learning ability and survival to learning ability, but in contrast, maternal effects were more variable than other effects for developmental traits. This suggests that maternal effects, which reflects effects from mitochondrial DNA, epigenetic effects, or the amount of nutrients that are invested by the mother in the egg, are more important in the early stage of life, and less at the adult stage. There was no additive genetic correlation between learning ability and other traits, indicating that the correlation between learning ability and egg-to-adult viability observed in the first pat of my project was mostly due to recessive genes.¦Finally, my results showed that learning ability is genetically variable. The diallel experiment showed additive genetic variance was the most important component of the total variance. Moreover, every inbred or isofemale line showed some learning ability. This suggested that alleles impairing learning ability are eliminated by selection, and therefore that learning ability is under strong selection in natural populations of Drosophila. My results cannot alone explain the maintenance of the observed genetic variation. Even if I cannot eliminate the hypothesis of pleiotropy between learning ability and the other fitness-related traits I measured, there is no evidence for any trade-off between these traits and learning ability. This contradicts what has been observed between learning ability and other traits like lifespan and larval competitivity.¦L'apprentissage représente la capacité d'un organisme à s'adapter aux changement de son environnement au cours de sa vie, en réponse à son expérience passée. C'est une capacité très répandue dans le règne animal, y compris pour les animaux les plus petits et les plus simples, mais les aspects évolutifs de l'apprentissage sont encore mal connus. L'apprentissage est supposé avantageux dans certaines conditions, quand l'environnement n'est ni trop stable - dans ce cas, il n'y a rien à apprendre - ni trop variable - dans ce cas, les indices sur lesquels se reposer changent trop vite pour apprendre. D'un autre côté, l'apprentissage a aussi des coûts, en terme de synthèse neuronale, pour la formation de la mémoire, ou de coûts d'erreur initiale d'apprentissage. Pendant ma thèse, j'ai étudié la variabilité génétique naturelle des capacités d'apprentissage. Comment varient les capacités d'apprentissage dans la nature ? Quelle est la part de variation additive, l'impact des effets maternel ? Est-ce que l'apprentissage est impliqué dans des interactions, de type compromis évolutifs, avec d'autres traits liés à la fitness ?¦Afin de répondre à ces questions, je me suis intéressée à la mouche du vinaigre, ou drosophile, un organisme modèle. Ses capacités d'apprentissage sont facile à étudier avec un test de mémoire reposant sur l'association entre un choc mécanique et une odeur. Pour étudier ses capacités naturelles, j'ai dérivé de types de lignées d'une population naturelle: des lignées consanguines et des lignées isofemelles.¦Dans une première partie, je me suis intéressée aux effets de la consanguinité sur les capacités d'apprentissage, qui sont peu connues. Alors que les lignées consanguines ont montré une réduction de 28% de leur viabilité (proportion d'adultes émergeants d'un nombre d'oeufs donnés), leurs capacités d'apprentissage n'ont été réduites que de 18%, la plus forte diminution étant obtenue pour un conditionnement modéré. En outre, j'ai également observé que les capacités d'apprentissage était positivement corrélée à la viabilité entre les lignées. Cette corrélation est surprenante car elle est en contradiction avec les résultats obtenus par d'autres études, qui montrent l'existence de compromis évolutifs entre les capacités d'apprentissage et d'autres traits comme le vieillissement ou la compétitivité larvaire. Elle suggère que la variation génétique des capacités d'apprentissage est due aux effets pleiotropes de gènes récessifs affectant d'autres fonctions liées à la survie. Ces résultats indiquent que la variation pour les capacités d'apprentissage est réduite comparée à celle d'autres traits ou est due à des allèles principalement récessifs. L'hypothèse de superdominance semble peu vraisemblable, car certaines des lignées consanguines ont obtenu des scores d'apprentissage égaux à ceux de la population non consanguine, alors qu'en cas de superdominance, elles auraient toutes dû obtenir des scores inférieurs.¦Dans la deuxième partie de mon projet, j'ai mesuré les capacités d'apprentissage de lignées isofemelles issues de la même population initiale que les lignées consanguines. Ces lignées sont issues chacune d'un seul couple, ce qui leur donne un taux d'hétérozygosité supérieur et évite l'élimination de lignées par fixation d'allèles délétères rares. Elles sont ainsi plus représentatives de la variabilité naturelle. Leur variabilité génétique est significative pour les capacités d'apprentissage, et trois traits liés à la fois à la fitness et à l'apprentissage: la viabilité, la résistance à l'infection bactérienne et la vitesse de développement. Cependant, la variabilité des capacités d'apprentissage n'apparaît cette fois pas inférieure à celle des autres traits et aucune corrélation n'est constatée entre les capacité d'apprentissage et les autres traits. Ceci suggère que la corrélation observée auparavant était surtout due à la fixation d'allèles récessifs délétères également responsables de la dépression de consanguinité.¦Durant la troisième partie de mon projet, je me suis penchée sur la décomposition de la variance observée entre les lignées consanguines observée en partie 1. Quatre composants ont été examinés: la variance due à des effets nucléaires (additifs et non additifs), et due à des effets parentaux (maternels et paternels). J'ai réalisé un croisement diallèle de toutes les lignées. La variance additive nucléaire s'est révélée supérieure aux autres composants pour les capacités d'apprentissage et la résistance à l'infection bactérienne. Par contre, les effets maternels étaient plus importants que les autres composants pour les traits développementaux (viabilité et vitesse de développement). Ceci suggère que les effets maternels, dus à G ADN mitochondrial, à l'épistasie ou à la quantité de nutriments investis dans l'oeuf par la mère, sont plus importants dans les premiers stades de développement et que leur effet s'estompe à l'âge adulte. Il n'y a en revanche pas de corrélation statistiquement significative entre les effets additifs des capacités d'apprentissage et des autres traits, ce qui indique encore une fois que la corrélation observée entre les capacités d'apprentissage et la viabilité dans la première partie du projet était due à des effets d'allèles partiellement récessifs.¦Au, final, mes résultats montrent bien l'existence d'une variabilité génétique pour les capacités d'apprentissage, et l'expérience du diallèle montre que la variance additive de cette capacité est importante, ce qui permet une réponse à la sélection naturelle. Toutes les lignées, consanguines ou isofemelles, ont obtenu des scores d'apprentissage supérieurs à zéro. Ceci suggère que les allèles supprimant les capacités d'apprentissage sont fortement contre-sélectionnés dans la nature Néanmoins, mes résultats ne peuvent pas expliquer le maintien de cette variabilité génétique par eux-même. Même si l'hypothèse de pléiotropie entre les capacités d'apprentissage et l'un des traits liés à la fitness que j'ai mesuré ne peut être éliminée, il n'y a aucune preuve d'un compromis évolutif pouvant contribuer au maintien de la variabilité.
Resumo:
Nous avons effectué une étude dans le but d'investiger les stratégies utilisées par les ambulanciers pour préserver leur santé. Parmi les stratégies que nous avons identifiées, celles contribuant au maintien et au développement des compétences nous ont semblé particulièrement intéressantes car elles permettent de réduire le stress lié à la peur de l'erreur. Elles permettent aussi aux ambulanciers "d'apprivoiser l'urgence" en leur donnant la possibilité de jouer un rôle actif face aux difficultés rencontrées. Nous présentons quelques-unes de ces stratégies dans cet article.
Resumo:
La planification scanographique (3D) a démontré son utilité pour une reconstruction anatomique plus précise de la hanche (longueur du fémur, centre de rotation, offset, antéversion et rétroversion). Des études ont montré que lors de la planification 2D 50% seulement correspondaient à l'implant définitif du fémur alors que dans une autre étude ce taux s'élevait à 94% pour une planification 3D. Les erreurs étaient liées à l'agrandissement des radiographies. L'erreur sur la taille de la tige est liée à l'estimation inadéquate de la morphologie osseuse ainsi qu'à la densité osseuse. L'erreur de l'antéversion, augmentée par l'inclinaison du bassin, a pu être éliminée par la planification 3D et l'offset restauré dans 98%. Cette étude est basée sur une nouvelle technique de planification scanographique en trois dimensions pour une meilleure précision de la reconstruction de la hanche. Le but de cette étude est de comparer l'anatomie post-opératoire à celle préopératoire en comparant les tailles d'implant prévu lors de la planification 3D à celle réellement utilisée lors de l'opération afin de déterminer l'exactitude de la restauration anatomique avec étude des différents paramètres (centre de rotation, densité osseuse, L'offset fémoral, rotations des implants, longueur du membre) à l'aide du Logiciel HIP-PLAN (Symbios) avec évaluation de la reproductibilité de notre planification 3D dans une série prospective de 50 patients subissant une prothèse totale de hanche non cimentée primaire par voie antérieure. La planification pré-opératoire a été comparée à un CTscan postopératoire par fusion d'images. CONCLUSION ET PRESPECTIVE Les résultats obtenus sont les suivants : La taille de l'implant a été prédit correctement dans 100% des tiges, 94% des cupules et 88% des têtes (longueur). La différence entre le prévu et la longueur de la jambe postopératoire était de 0,3+2,3 mm. Les valeurs de décalage global, antéversion fémorale, inclinaison et antéversion de la cupule étaient 1,4 mm ± 3,1, 0,6 ± 3,3 0 -0,4 0 ± 5 et 6,9 ° ± 11,4, respectivement. Cette planification permet de prévoir la taille de l'implant précis. Position de la tige et de l'inclinaison de la cupule sont exactement reproductible. La planification scanographique préopératoire 3D permet une évaluation précise de l'anatomie individuelle des patients subissant une prothèse totale de hanche. La prédiction de la taille de l'implant est fiable et la précision du positionnement de la tige est excellente. Toutefois, aucun avantage n'est observée en termes d'orientation de la cupule par rapport aux études impliquant une planification 2D ou la navigation. De plus amples recherches comparant les différentes techniques de planification pré-opératoire à la navigation sont nécessaire.
Resumo:
Etude des modèles de Whittle markoviens probabilisés Résumé Le modèle de Whittle markovien probabilisé est un modèle de champ spatial autorégressif simultané d'ordre 1 qui exprime simultanément chaque variable du champ comme une moyenne pondérée aléatoire des variables adjacentes du champ, amortie d'un coefficient multiplicatif ρ, et additionnée d'un terme d'erreur (qui est une variable gaussienne homoscédastique spatialement indépendante, non mesurable directement). Dans notre cas, la moyenne pondérée est une moyenne arithmétique qui est aléatoire du fait de deux conditions : (a) deux variables sont adjacentes (au sens d'un graphe) avec une probabilité 1 − p si la distance qui les sépare est inférieure à un certain seuil, (b) il n'y a pas d'adjacence pour des distances au-dessus de ce seuil. Ces conditions déterminent un modèle d'adjacence (ou modèle de connexité) du champ spatial. Un modèle de Whittle markovien probabilisé aux conditions où p = 0 donne un modèle de Whittle classique qui est plus familier en géographie, économétrie spatiale, écologie, sociologie, etc. et dont ρ est le coefficient d'autorégression. Notre modèle est donc une forme probabilisée au niveau de la connexité du champ de la forme des modèles de Whittle classiques, amenant une description innovante de l'autocorrélation spatiale. Nous commençons par décrire notre modèle spatial en montrant les effets de la complexité introduite par le modèle de connexité sur le pattern de variances et la corrélation spatiale du champ. Nous étudions ensuite la problématique de l'estimation du coefficent d'autorégression ρ pour lequel au préalable nous effectuons une analyse approfondie de son information au sens de Fisher et de Kullback-Leibler. Nous montrons qu'un estimateur non biaisé efficace de ρ possède une efficacité qui varie en fonction du paramètre p, généralement de manière non monotone, et de la structure du réseau d'adjacences. Dans le cas où la connexité du champ est non observée, nous montrons qu'une mauvaise spécification de l'estimateur de maximum de vraisemblance de ρ peut biaiser celui-ci en fonction de p. Nous proposons dans ce contexte d'autres voies pour estimer ρ. Pour finir, nous étudions la puissance des tests de significativité de ρ pour lesquels les statistiques de test sont des variantes classiques du I de Moran (test de Cliff-Ord) et du I de Moran maximal (en s'inspirant de la méthode de Kooijman). Nous observons la variation de puissance en fonction du paramètre p et du coefficient ρ, montrant par cette voie la dualité de l'autocorrélation spatiale entre intensité et connectivité dans le contexte des modèles autorégressifs
Resumo:
Objectifs: Des décès suite à une intervention chirurgicale sont autopsiés dans le but de déterminer le cause de la mort et investiguer une éventuelle erreur médicale . Le butde l'étude est d'évaluer l'utilité de l'angio-TDM post mortem pour ce type d'investigations médico-légales délicates. Matériels et méthodes: 145 cas médico-légaux ont été investigués. De ce collectif, huit cas impliquaient une intervention chirurgicale pour laquelle le décès pouvait être éventuellementimputé. Les résultats des examens radiologiques ont été comparés avec ceux obtenus par l'autopsie conventionnelle. Résultats: La cause du décès était soit un choc hémorragique ou septique, soit la combinaison d'une hémorragie et d'une aspiration de sang. Le diagnostic a pu être posélors de l'autopsie conventionnelle de même que lors de l'examen radiologique. Cependant, l'examen par angio-TDM a permis de détecter la source exacte deshémorragies dans cinq des six cas, alors que l'autopsie n'a permis de localiser le site hémorragique approximativement que dans trois cas . Conclusion: L'angio-TDM post-mortem est recommandée dans les cas de décès post-interventionnels. Elle permet de documenter les constatations et de réexaminer les casultérieurement. De plus, la source exacte des hémorragies peut être localisée ce qui est d'une grande importance dans ce genre de cas.
Resumo:
RESUME L'obésité et l'hypertension atteignent des niveaux épidémiques aussi bien dans les pays industrialisés que dans ceux en voie de développement. La coexistence de ces deux pathologies est associée à un risque cardiovasculaire augmenté. Traditionnellement on mesure la pression artérielle (PA) au bras au moyen d'un brassard qui détermine la pression systolique et diastolique en utilisant soit la méthode auscultatoire ou oscillométrique. L'utilisation d'un brassard de taille standard chez le patient avec un tour de bras augmenté peut surestimer la pression artérielle. Il semble même qu'il existe un rapport idéal entre le tour de bras, et la taille du brassard La mesure à domicile de la pression artérielle avec des appareils validés donne des valeurs de la PA valables. Plusieurs appareils existent sur le marché et depuis quelques années les appareils de mesure de la PA au poignet font leur apparition sur le marché. Cette étude vise à comparer chez des sujets sains et obèses les valeurs de PA obtenues au poignet avec celles obtenues au bras en utilisant deux appareils validés l'OMRON HEM 705-CP et l'OMRON R6. L'OMRON HEM 705-CP permet l'utilisation soit d'un brassard standard (13x30 cm) ou d'un brassard large (16x38 cm), et l'OMRON R6 mesure la PA au poignet. Nous avons comparé un groupe de sujets obèses [Body Mass Index (BMI) >35kg/m2] avec un groupe de sujets sains (BMI <25kg/m2). Ont été exclues de l'étudé les personnes prenant un traitement antihypertenseur ainsi que celles souffrant d'arythmies. La PA a été mesurée en position assise avec le bras gauche sur une table à hauteur du coeur. Un brassard large a été employé pour les sujets obèses et un brassard standard pour les sujets sains. Trois mesures ont été effectuées, la première après une pause de 5 min et chacune des suivantes avec un intervalle de 2 min. La pression d'inflation maximale a été fixée à 170 mmHg. Nous avons utilisé la formule proposée par Marks LA et al pour déterminer si le rapport entre la taille des brassards fournis avec l'OMRON .HEM 705-CP et le tour de bras de nos sujets était optimal (taille du brassard = 9.34 x log10 taille du bras). Nos résultats ne montrent pas de différence statistiquement significative de la PA diastolique entre les deux groupes, qu'elle soit mesurée au bras ou au poignet. La PA systolique mesurée au bras s'est par contre avérée significativement plus basse chez les sujets obèses que chez les sujets sains. Aucune différence n'a été trouvée lorsque la mesure est effectuée au poignet. En utilisant la formule fournie par Marks le rapport entre taille du brassard (large chez les obèses) et tour de bras a été de 10.30±30 chez les sujets obèses et 9.630.45 chez les sujets sains (p<0.001). Le rapport entre tour de bras et brassard chez les sujets obèses est nettement au-dessus de la valeur optimale, ce qui suggère une possible sous-estimation de la PA systolique chez ces sujets. Ces résultats suggèrent qu'il existe un risque de sous-estimer la PA chez le patient obèse lors de l'utilisation d'un brassard large. Cette erreur pourrait être réduite par l'utilisation d'appareils de mesure au poignet. validés chez le sujet obèse.
Resumo:
Résumé : Description : Ce travail de thèse évalue l'impact de la consommation importante d'alcool sur les facteurs de risque cardiovasculaire et l'estimation du risque cardiovasculaire à 10 ans (risque de développer une maladie coronarienne}, dans une population avec une consommation moyenne élevée d'alcool. La consommation modérée d'alcool a été liée à un risque plus faible de développer une maladie coronarienne. Cependant, les données concernant la consommation importante d'alcool et le risque de développer une maladie coronarienne sont conflictuelles. Il y a également peu d'études dans lesquelles les consommations importantes d'alcool ont pu être évaluées en raison du petit nombre de sujets présentant une telle consommation. Résultats: Nous avons utilisé les données de l'étude CoLaus, une étude populationnelle qui inclut des adultes, âgés de 35 à 75 ans, de la ville de Lausanne. Nous avons inclus 5'769 participants, sans maladie cardiovasculaire, pour lesquels la consommation d'alcool d'une semaine a été catégorisée en 0, 1 à 6, 7 à 13, 14 à 20, 21 à 27, 28 à 34 et >=35 verres/semaine et en non-consommateur (0 verre/semaine), consommateur modéré (1 à 13 verres/semaine), important (14 à 34 verres/semaine) et très important (>= 35). La tension artérielle et les lipides ont été mesurés et le risque de développer une maladie coronarienne à 10 ans a été calculé en utilisant le score de Framingham. 73% des participants consommaient de l'alcool; 16% étaient des consommateurs importants et 2% des consommateurs très importants. L'analyse rnultivariée a montré une augmentation du cholestérol HDL avec la consommation d'alcool (de 1.570.01 [moyenne +- erreur standard] chez les non consommateurs à 1.880.03 mmol/L chez les consommateurs très importants), des triglycérides (1.17+-1.01 à 1.32+-1.05 mmol/L) et des valeurs de tension artérielle systolique (127.4+-0.4 à 132.2+-.4 mm Hg) et diastolique (78.7+-0.3 à 81.7+-0.9 mm Hg, toutes les valeurs de p pour trend<0.001). Quant au risque de développer une maladie coronarienne à 10 ans, il a augmenté de 4.31%+-0.10 à 4.90%+-0.37 (p=0.03) avec la consommation d'alcool, en décrivant une courbe en J. En examinant le type de consommation, on a vu que la consommation de vin a plus d'effet sur l'augmentation des valeurs de cholestérol HDL, alors que la consommation de bière ou de spiritueux a plus d'effet sur l'augmentation des valeurs de triglycérides. Conclusions et perspectives: Nos résultats montrent qu'en ce qui concerne l'estimation du risque cardiovasculaire à 10 ans, l'effet protecteur de la consommation d'alcool disparaît pour des consommations très importantes, car l'effet bénéfique des valeurs augmentées de cholestérol HDL est contrecarré par l'augmentation des valeurs de tension artérielle. Quant aux différents types d'alcool, d'autres études sont nécessaires pour mieux évaluer leur effet spécifique sur les facteurs de risque cardiovasculaire.
Resumo:
RESUME Les fibres textiles sont des produits de masse utilisés dans la fabrication de nombreux objets de notre quotidien. Le transfert de fibres lors d'une action délictueuse est dès lors extrêmement courant. Du fait de leur omniprésence dans notre environnement, il est capital que l'expert forensique évalue la valeur de l'indice fibres. L'interprétation de l'indice fibres passe par la connaissance d'un certain nombre de paramètres, comme la rareté des fibres, la probabilité de leur présence par hasard sur un certain support, ainsi que les mécanismes de transfert et de persistance des fibres. Les lacunes les plus importantes concernent les mécanismes de transfert des fibres. A ce jour, les nombreux auteurs qui se sont penchés sur le transfert de fibres ne sont pas parvenus à créer un modèle permettant de prédire le nombre de fibres que l'on s'attend à retrouver dans des circonstances de contact données, en fonction des différents paramètres caractérisant ce contact et les textiles mis en jeu. Le but principal de cette recherche est de démontrer que la création d'un modèle prédictif du nombre de fibres transférées lors d'un contact donné est possible. Dans le cadre de ce travail, le cas particulier du transfert de fibres d'un tricot en laine ou en acrylique d'un conducteur vers le dossier du siège de son véhicule a été étudié. Plusieurs caractéristiques des textiles mis en jeu lors de ces expériences ont été mesurées. Des outils statistiques (régression linéaire multiple) ont ensuite été utilisés sur ces données afin d'évaluer l'influence des caractéristiques des textiles donneurs sur le nombre de fibres transférées et d'élaborer un modèle permettant de prédire le nombre de fibres qui vont être transférées à l'aide des caractéristiques influençant significativement le transfert. Afin de faciliter la recherche et le comptage des fibres transférées lors des expériences de transfert, un appareil de recherche automatique des fibres (liber finder) a été utilisé dans le cadre de cette recherche. Les tests d'évaluation de l'efficacité de cet appareil pour la recherche de fibres montrent que la recherche automatique est globalement aussi efficace qu'une recherche visuelle pour les fibres fortement colorées. Par contre la recherche automatique perd de son efficacité pour les fibres très pâles ou très foncées. Une des caractéristiques des textiles donneurs à étudier est la longueur des fibres. Afin de pouvoir évaluer ce paramètre, une séquence d'algorithmes de traitement d'image a été implémentée. Cet outil permet la mesure de la longueur d'une fibre à partir de son image numérique à haute résolution (2'540 dpi). Les tests effectués montrent que les mesures ainsi obtenues présentent une erreur de l'ordre du dixième de millimètre, ce qui est largement suffisant pour son utilisation dans le cadre de cette recherche. Les résultats obtenus suite au traitement statistique des résultats des expériences de transfert ont permis d'aboutir à une modélisation du phénomène du transfert. Deux paramètres sont retenus dans le modèle: l'état de la surface du tissu donneur et la longueur des fibres composant le tissu donneur. L'état de la surface du tissu est un paramètre tenant compte de la quantité de fibres qui se sont détachées de la structure du tissu ou qui sont encore faiblement rattachées à celle-ci. En effet, ces fibres sont les premières à se transférer lors d'un contact, et plus la quantité de ces fibres par unité de surface est importante, plus le nombre de fibres transférées sera élevé. La longueur des fibres du tissu donneur est également un paramètre important : plus les fibres sont longues, mieux elles sont retenues dans la structure du tissu et moins elles se transféreront. SUMMARY Fibres are mass products used to produce numerous objects encountered everyday. The transfer of fibres during a criminal action is then very common. Because fibres are omnipresent in our environment, the forensic expert has to evaluate the value of the fibre evidence. To interpret fibre evidence, the expert has to know some parameters as frequency of fibres,' probability of finding extraneous fibres by chance on a given support, and transfer and persistence mechanisms. Fibre transfer is one of the most complex parameter. Many authors studied fibre transfer mechanisms but no model has been created to predict the number of fibres transferred expected in a given type of contact according to parameters as characteristics of the contact and characteristics of textiles. The main purpose of this research is to demonstrate that it is possible to create a model to predict the number of fibres transferred during a contact. In this work, the particular case of the transfer of fibres from a knitted textile in wool or in acrylic of a driver to the back of a carseat has been studied. Several characteristics of the textiles used for the experiments were measured. The data obtained were then treated with statistical tools (multiple linear regression) to evaluate the influence of the donor textile characteristics on the number of úbers transferred, and to create a model to predict this number of fibres transferred by an equation containing the characteristics having a significant influence on the transfer. To make easier the searching and the counting of fibres, an apparatus of automatic search. of fibers (fiber finder) was used. The tests realised to evaluate the efficiency of the fiber finder shows that the results obtained are generally as efficient as for visual search for well-coloured fibres. However, the efficiency of automatic search decreases for pales and dark fibres. One characteristic of the donor textile studied was the length of the fibres. To measure this parameter, a sequence of image processing algorithms was implemented. This tool allows to measure the length of a fibre from it high-resolution (2'540 dpi) numerical image. The tests done shows that the error of the measures obtained are about some tenths of millimetres. This precision is sufficient for this research. The statistical methods applied on the transfer experiment data allow to create a model of the transfer phenomenon. Two parameters are included in the model: the shedding capacity of the donor textile surface and the length of donor textile fibres. The shedding capacity of the donor textile surface is a parameter estimating the quantity of fibres that are not or slightly attached to the structure of the textile. These fibres are easily transferred during a contact, and the more this quantity of fibres is high, the more the number of fibres transferred during the contact is important. The length of fibres is also an important parameter: the more the fibres are long, the more they are attached in the structure of the textile and the less they are transferred during the contact.
Resumo:
Estimer la filtration glomérulaire chez les personnes âgées, tout en tenant compte de la difficulté supplémentaire d'évaluer leur masse musculaire, est difficile et particulièrement important pour la prescription de médicaments. Le taux plasmatique de la creatinine dépend à la fois de la fraction d'élimination rénale et extra-rénale et de la masse musculaire. Actuellement, pour estimer là filtration glomérulaire différentes formules sont utilisées, qui se fondent principalement sur la valeur de la créatinine. Néanmoins, en raison de la fraction éliminée par les voies tubulaires et intestinales la clairance de la créatinine surestime généralement le taux de filtration glomérulaire (GFR). Le but de cette étude est de vérifier la fiabilité de certains marqueurs et algorithmes de la fonction rénale actuellement utilisés et d'évaluer l'avantage additionnel de prendre en considération la masse musculaire mesurée par la bio-impédance dans une population âgée (> 70 ans) et avec une fonction rénale chronique compromise basée sur MDRD eGFR (CKD stades lll-IV). Dans cette étude, nous comparons 5 équations développées pour estimer la fonction rénale et basées respectivement sur la créatinine sérique (Cockcroft et MDRD), la cystatine C (Larsson), la créatinine combinée à la bêta-trace protéine (White), et la créatinine ajustée à la masse musculaire obtenue par analyse de la bio-impédance (MacDonald). La bio-impédance est une méthode couramment utilisée pour estimer la composition corporelle basée sur l'étude des propriétés électriques passives et de la géométrie des tissus biologiques. Cela permet d'estimer les volumes relatifs des différents tissus ou des fluides dans le corps, comme par exemple l'eau corporelle totale, la masse musculaire (=masse maigre) et la masse grasse corporelle. Nous avons évalué, dans une population âgée d'un service interne, et en utilisant la clairance de l'inuline (single shot) comme le « gold standard », les algorithmes de Cockcroft (GFR CKC), MDRD, Larsson (cystatine C, GFR CYS), White (beta trace protein, GFR BTP) et Macdonald (GFR = ALM, la masse musculaire par bio-impédance. Les résultats ont montré que le GFR (mean ± SD) mesurée avec l'inuline et calculée avec les algorithmes étaient respectivement de : 34.9±20 ml/min pour l'inuline, 46.7±18.5 ml/min pour CKC, 47.2±23 ml/min pour CYS, 54.4±18.2ml/min pour BTP, 49±15.9 ml/min pour MDRD et 32.9±27.2ml/min pour ALM. Les courbes ROC comparant la sensibilité et la spécificité, l'aire sous la courbe (AUC) et l'intervalle de confiance 95% étaient respectivement de : CKC 0 68 (055-0 81) MDRD 0.76 (0.64-0.87), Cystatin C 0.82 (0.72-0.92), BTP 0.75 (0.63-0.87), ALM 0.65 (0.52-0.78). ' En conclusion, les algorithmes comparés dans cette étude surestiment la GFR dans la population agee et hospitalisée, avec des polymorbidités et une classe CKD lll-IV. L'utilisation de l'impédance bioelectrique pour réduire l'erreur de l'estimation du GFR basé sur la créatinine n'a fourni aucune contribution significative, au contraire, elle a montré de moins bons résultats en comparaison aux autres equations. En fait dans cette étude 75% des patients ont changé leur classification CKD avec MacDonald (créatinine et masse musculaire), contre 49% avec CYS (cystatine C), 56% avec MDRD,52% avec Cockcroft et 65% avec BTP. Les meilleurs résultats ont été obtenus avec Larsson (CYS C) et la formule de Cockcroft.
Resumo:
L'expérience Belle, située dans le centre de recherche du KEK, au Japon, est consacrée principalement à l'étude de la violation de CP dans le système des mésons B. Elle est placée sur le collisionneur KEKB, qui produit des paires Banti-B. KEKB, l'une des deux « usines à B » actuellement en fonction, détient le record du nombre d'événements produits avec plus de 150 millions de paires. Cet échantillon permet des mesures d'une grande précision dans le domaine de la physique du méson B. C'est dans le cadre de ces mesures de précision que s'inscrit cette analyse. L'un des phénomènes remarquables de la physique des hautes énergies est la faculté qu'a l'interaction faible de coupler un méson neutre avec son anti-méson. Dans le présent travail, nous nous intéressons au méson B neutre couplé à l'anti-méson B neutre, avec une fréquence d'oscillation _md mesurable précisément. Outre la beauté de ce phénomène lui-même, une telle mesure trouve sa place dans la quête de l'origine de la violation de CP. Cette dernière n'est incluse que d'une façon peu satisfaisante dans le modèle standard des interactions électro-faibles. C'est donc la recherche de phénomènes physiques encore inexpliqués qui motive en premier lieu la collaboration Belle. Il existe déjà de nombreuses mesures de _md antérieures. Celle que nous présentons ici est cependant d'une précision encore jamais atteinte grâce, d'une part, à l'excellente performance de KEKB et, d'autre part, à une approche originale qui permet de réduire considérablement la contamination de la mesure par des événements indésirés. Cette approche fut déjà mise à profit par d'autres expériences, dans des conditions quelque peu différentes de celles de Belle. La méthode utilisée consiste à reconstruire partiellement l'un des mésons dans le canal ___D*(D0_)l_l, en n'utilisant que les informations relatives au lepton l et au pion _. L'information concernant l'autre méson de la paire Banti-B initiale n'est tirée que d'un seul lepton de haute énergie. Ainsi, l'échantillon à disposition ne souffre pas de grandes réductions dues à une reconstruction complète, tandis que la contamination due aux mésons B chargés, produits par KEKB en quantité égale aux B0, est fortement diminuée en comparaison d'une analyse inclusive. Nous obtenons finalement le résultat suivant : _md = 0.513±0.006±0.008 ps^-1, la première erreur étant l'erreur statistique et la deuxième, l'erreur systématique.<br/><br/>The Belle experiment is located in the KEK research centre (Japan) and is primarily devoted to the study of CP violation in the B meson sector. Belle is placed on the KEKB collider, one of the two currently running "B-meson factories", which produce Banti-B pairs. KEKB has created more than 150 million pairs in total, a world record for this kind of colliders. This large sample allows very precise measurements in the physics of beauty mesons. The present analysis falls within the framework of these precise measurements. One of the most remarkable phenomena in high-energy physics is the ability of weak interactions to couple a neutral meson to its anti-meson. In this work, we study the coupling of neutral B with neutral anti-B meson, which induces an oscillation of frequency _md we can measure accurately. Besides the interest of this phenomenon itself, this measurement plays an important role in the quest for the origin of CP violation. The standard model of electro-weak interactions does not include CP violation in a fully satisfactory way. The search for yet unexplained physical phenomena is, therefore, the main motivation of the Belle collaboration. Many measurements of _md have previously been performed. The present work, however, leads to a precision on _md that was never reached before. This is the result of the excellent performance of KEKB, and of an original approach that allows to considerably reduce background contamination of pertinent events. This approach was already successfully used by other collaborations, in slightly different conditions as here. The method we employed consists in the partial reconstruction of one of the B mesons through the decay channel ___D*(D0_)l_l, where only the information on the lepton l and the pion _ are used. The information on the other B meson of the initial Banti-B pair is extracted from a single high-energy lepton. The available sample of Banti-B pairs thus does not suffer from large reductions due to complete reconstruction, nor does it suffer of high charged B meson background, as in inclusive analyses. We finally obtain the following result: _md = 0.513±0.006±0.008 ps^-1, where the first error is statistical, and the second, systematical.<br/><br/>De quoi la matière est-elle constituée ? Comment tient-elle ensemble ? Ce sont là les questions auxquelles la recherche en physique des hautes énergies tente de répondre. Cette recherche est conduite à deux niveaux en constante interaction. D?une part, des modèles théoriques sont élaborés pour tenter de comprendre et de décrire les observations. Ces dernières, d?autre part, sont réalisées au moyen de collisions à haute énergie de particules élémentaires. C?est ainsi que l?on a pu mettre en évidence l?existence de quatre forces fondamentales et de 24 constituants élémentaires, classés en « quarks » et « leptons ». Il s?agit là de l?une des plus belles réussites du modèle en usage aujourd?hui, appelé « Modèle Standard ». Il est une observation fondamentale que le Modèle Standard peine cependant à expliquer, c?est la disparition quasi complète de l?anti-matière (le « négatif » de la matière). Au niveau fondamental, cela doit correspondre à une asymétrie entre particules (constituants de la matière) et antiparticules (constituants de l?anti-matière). On l?appelle l?asymétrie (ou violation) CP. Bien qu?incluse dans le Modèle Standard, cette asymétrie n?est que partiellement prise en compte, semble-t-il. En outre, son origine est inconnue. D?intenses recherches sont donc aujourd?hui entreprises pour mettre en lumière cette asymétrie. L?expérience Belle, au Japon, en est une des pionnières. Belle étudie en effet les phénomènes physiques liés à une famille de particules appelées les « mésons B », dont on sait qu?elles sont liées de près à l?asymétrie CP. C?est dans le cadre de cette recherche que se place cette thèse. Nous avons étudié une propriété remarquable du méson B neutre : l?oscillation de ce méson avec son anti-méson. Cette particule est de se désintégrer pour donner l?antiparticule associée. Il est clair que cette oscillation est rattachée à l?asymétrie CP. Nous avons ici déterminé avec une précision encore inégalée la fréquence de cette oscillation. La méthode utilisée consiste à caractériser une paire de mésons B à l?aide de leur désintégration comprenant un lepton chacun. Une plus grande précision est obtenue en recherchant également une particule appelée le pion, et qui provient de la désintégration d?un des mésons. Outre l?intérêt de ce phénomène oscillatoire en lui-même, cette mesure permet d?affiner, directement ou indirectement, le Modèle Standard. Elle pourra aussi, à terme, aider à élucider le mystère de l?asymétrie entre matière et anti-matière.
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.