103 resultados para Inter-methodology
Resumo:
Purpose: To determine whether the need for retreatment after an initial phase of 3 monthly intravitreal injections of ranibizumab shows an intra-individual regular rhythm and to what degree it varies between different patients. Methods: Prospective study with 42 patients with exudative AMD, treatment naïve. Loading dose of 3 monthly doses of ranibizumab (0,5 mg), followed by a 12 months pro re nata (PRN) regimen according to early exudative signs on HD-OCT Cirrus, Zeiss. The follow-up visits were intensified (week 4, 5, 6, 7, 8, 10, 12, 14, 16, 20, etc after each injection) in order to detect recurrences early, and injection followed within 3 days in cases of subretinal fluid, cysts, or central thickness increase of>50microns. Intervals were calculated between injections for the 12 month follow-up with PRN treatment. Variability was expressed as standard deviation (SD). Results: Visual acuity (VA) improved from a mean ETDRS score of 61.6 (SD 10.8) at baseline to 68.0 (SD 10.2) at month 3 and to 74.7(SD 9.0) at month 12. The 15 patients who have already completed the study showed maintenance of the VA improvement. Central foveal thickness improved from a mean value of 366 microns (baseline) to 253 microns (month 3), well maintained thereafter. Mean number of injections was 8.8 (SD 3.5,range 0-12) per 12 months of follow-up (after 3 doses), with mean individual treatment-recurrence (TR) intervals ranging from 28->365 days (mean 58). Intraindividual variability of TR intervals (SD) was 7.1 days as a mean value (range 1.7¡V22.6). It ranged within 20% of the mean intra-individual interval for 30 (91%) and within 15% for 21 patients (64%). The first interval was within 1 week of the mean intra-individual interval in 64% and within 2 weeks in 89% of patients. Conclusions: The majority of AMD patients showed a relatively stable rhythm for PRN injections of ranibizumab after initial loading phase, associated with excellent functional/anatomical results. The initial interval last loading dose-first recurrence may have a predictive value for further need of treatment, potentially facilitating follow-up and patient care.
Resumo:
The neuro-peptide hormone oxytocin regulates several reproductive mechanisms in mammals, such as uterine contractions during parturition and milk ejection in the lactating mammary gland. Oxytocin may also influence behavior and behavioral strategies, e.g. pair bonding, social recognition, maternal behavior, trust building, or anxiety. Teasing oestrous mares by a stallion provokes the release of oxytocin. We therefore tested whether such elevated oxytocin levels reveal possible mate preferences as determined in typical preference tests.
Resumo:
Coagulation factor V (FV) deficiency is characterised by variable bleeding phenotypes and heterogeneous mutations. To add new insights into the FV genotype-phenotype relationship, we characterised the R1698W change in the A3 domain, at the poorly investigated interface with the A2 domain. The FV R1698W mutation was responsible for a markedly reduced expression level (10% of FV-WT) and specific activity in thrombin generation (0.39). Interestingly, the FVa1698W showed rapid activity decay upon activation due to increased dissociation rate between the heavy and light chains. The importance of the size and charge of the residue at position 1698 was investigated by three additional recombinant mutants, FVR1698A, FVR1698Q, and FVR1698E. FVR1698A and FVR1698Q expression (30 and 45% of FV-WT), specific activity (both 0.57) and stability were all reduced. Noticeably, FVR1698E showed normal activity and stability despite poor expression (10% of FV-WT). These data indicate the essential role of R1698 for normal biosynthetic process and support local flexibility for positively or negatively charged residues to produce stable and functional A3-A2 domain interactions. Their experimental alteration produces a gradient of FV defects, which help to interpret the wide spectrum of phenotypes in FV-deficient patients.
Resumo:
Deciding whether two fingerprint marks originate from the same source requires examination and comparison of their features. Many cognitive factors play a major role in such information processing. In this paper we examined the consistency (both between- and within-experts) in the analysis of latent marks, and whether the presence of a 'target' comparison print affects this analysis. Our findings showed that the context of a comparison print affected analysis of the latent mark, possibly influencing allocation of attention, visual search, and threshold for determining a 'signal'. We also found that even without the context of the comparison print there was still a lack of consistency in analysing latent marks. Not only was this reflected by inconsistency between different experts, but the same experts at different times were inconsistent with their own analysis. However, the characterization of these inconsistencies depends on the standard and definition of what constitutes inconsistent. Furthermore, these effects were not uniform; the lack of consistency varied across fingerprints and experts. We propose solutions to mediate variability in the analysis of friction ridge skin.
Resumo:
Back pain is a considerable economical burden in industrialised countries. Its management varies widely across countries, including Switzerland. Thus, the University Hospital and University of Lausanne (CHUV) recently improved intern processes of back pain care. In an already existing collaborative context, the two university hospitals in French-speaking Switzerland (CHUV, University Hospital of Geneva), felt the need of a medical consensus, based on a common concept. This inter-hospital consensus produced three decisional algorithms that bear on recent concepts of back pain found in literature. Eventually, a fast track was created at CHUV, to which extern physicians will have an organised and rapid access. This fast track aims to reduce chronic back pain conditions and provides specialised education for general practitioners-in-training.
Resumo:
This review is part of a series of review articles on the metabolism of drugs and other xenobiotics published in Chemistry & Biodiversity. After a thorough discussion of metabolic reactions and their enzymes, this article focuses on genetically determined differences in drug and xenobiotic metabolism. After a short introduction on the causes for genetic differences, the first focus is on species differences in drug and xenobiotic metabolism. A major chapter is then dedicated to clinically relevant genetic polymorphisms in human drug metabolism and resultant ethnic differences. The last two chapters deal with sex-dependent differences in drug metabolism and personalized pharmacotherapy related to inter-individual differences in drug metabolism.
Resumo:
This epidemiologic investigation in three Swiss regions (Geneva, St. Gall-Appenzell, Vaud) included 5,193 women diagnosed as having a first primary breast cancer. The patients were followed up for ten years (the observation totalled 24,994 women-years). Overall, these results confirmed that the relative risk of a second breast cancer was greatly increased during the first year following the primary diagnosis, but this was largely due to simultaneously discovered contralateral tumours. Beyond the first year of follow-up, the relative risk of a second tumour was lower but still significantly greater than unity. No significant diminution of the excess risk was observed in the first 10 years of follow-up. Relative risk of a second breast cancer was generally higher before age 50, independently of the latency. The relative risk of a second breast cancer differed significantly from one region to another, possibly due to specific techniques of registration.
Resumo:
The objective of this study was to investigate whether it is possible to pool together diffusion spectrum imaging data from four different scanners, located at three different sites. Two of the scanners had identical configuration whereas two did not. To measure the variability, we extracted three scalar maps (ADC, FA and GFA) from the DSI and utilized a region and a tract-based analysis. Additionally, a phantom study was performed to rule out some potential factors arising from the scanner performance in case some systematic bias occurred in the subject study. This work was split into three experiments: intra-scanner reproducibility, reproducibility with twin-scanner settings and reproducibility with other configurations. Overall for the intra-scanner and twin-scanner experiments, the region-based analysis coefficient of variation (CV) was in a range of 1%-4.2% and below 3% for almost every bundle for the tract-based analysis. The uncinate fasciculus showed the worst reproducibility, especially for FA and GFA values (CV 3.7-6%). For the GFA and FA maps, an ICC value of 0.7 and above is observed in almost all the regions/tracts. Looking at the last experiment, it was found that there is a very high similarity of the outcomes from the two scanners with identical setting. However, this was not the case for the two other imagers. Given the fact that the overall variation in our study is low for the imagers with identical settings, our findings support the feasibility of cross-site pooling of DSI data from identical scanners.
Resumo:
PURPOSE:To determine whether the need for retreatment after an initial loading phase of 3 monthly intravitreal injections of ranibizumab shows an intra-individual regular rhythm and to what degree it varies between different patients.SETTING:Prospective mono-centre cohort study.METHODS:Prospective study with 42 patients with exudative age-related macular degeneration (AMD), treatment na?ve, giving informed consent. Loading dose of 3 monthly doses of ranibizumab (0,5mg), followed by a 12 months pro re nata (PRN) regimen according to early exudative signs on spectral domain optical coherence tomography (HD-OCT Cirrus Zeiss?, cube 512x126). The follow-up visits were intensified (week 4, 5, 6, 7, 8, 10, 12, 14, 16, 20, 24, etc after each injection) in order to detect exudative recurrences early, and injection followed within 3 days in cases of subretinal fluid, or intraretinal cysts, or central thickness increase of >50?m. Intervals were calculated between injections and the following recurrence was calculated for the 12 month follow-up with PRN treatment. Variability was expressed as standard deviation (SD). RESULTS Visual acuity (VA) improved from a mean ETDRS letter score of 61.6 (SD 10.8) at baseline to 68.0 (SD 10.2, +6.4 letters) at month 3 and increased further to 74.7 (SD 9.0, +13.1 letters from baseline) at month 12. The 15 patients who have completed the study by October 2010 showed maintenance of the VA improvement. Retinal thickness of the central foveal subfield improved from a mean value of 366?m(baseline) to 253?m(month 3), well maintained thereafter. Mean number of injections was 8.8 (SD 3.5) per 12 months of follow-up (after 3 loading doses), ranging from 0 to 12, with mean individual treatment-recurrence intervals ranging from 28 to >365 days (mean 58 days). Intraindividual variability of treatment-recurrence intervals, measured as SD of the individual intervals, was 7.1days as a mean value(range 1.7 ? 22.6 days) for the 33 patients with more than 1 injection during follow-up. SD was higher for longer intervals of an individual patient. It ranged within 20% of the mean intra-individual interval for 30 patients(91%) and within 15% for 21 patients(64%). The first interval was within 1 week of the mean intra-individual interval in 64% of patients and within 2 weeks in 89% of patients.CONCLUSIONS:The majority of AMD patients showed a relatively stable rhythm for PRN injections of intravitreal ranibizumab after initial loading phase, associated with excellent functional and anatomical results. The initial interval between last loading dose and first recurrence may have a predictive value for further need of treatment, therefore potentially facilitating follow-up and patient care.
Resumo:
Take-off, the most important phase in ski jumping, has been primarily studied in terms of spatio-temporal parameters; little is known about its motor control aspects. This study aims to assess the inter-segment coordination of the shank-thigh and thigh-sacrum pairs using the continuous relative phase (CRP). In total 87 jumps were recorded from 33 athletes with an inertial sensor-based system. The CRP curves indicated that the thighs lead the shanks during the first part of take-off extension and that the shanks rotated faster at the take-off extension end. The thighs and sacrum first rotated synchronously, with the sacrum then taking lead, with finally the thighs rotating faster. Five characteristic features were extracted from the CRP and their relationship with jump length was tested. Three features of the shank-thigh pair and one of the thigh-sacrum pair reported a significant association with jump length. It was observed that athletes who achieved longer jumps had their thighs leading their shanks during a longer time, with these athletes also having a more symmetric movement between thighs and sacrum. This study shows that inter-segment coordination during the take-off extension is related to performance and further studies are necessary to contrast its importance with other ski jumping aspects.
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
OBJECTIVES: Intercountry comparability between studies on medication use in pregnancy is difficult due to dissimilarities in study design and methodology. This study aimed to examine patterns and factors associated with medications use in pregnancy from a multinational perspective, with emphasis on type of medication utilised and indication for use. DESIGN: Cross-sectional, web-based study performed within the period from 1 October 2011 to 29 February 2012. Uniform collection of drug utilisation data was performed via an anonymous online questionnaire. SETTING: Multinational study in Europe (Western, Northern and Eastern), North and South America and Australia. PARTICIPANTS: Pregnant women and new mothers with children less than 1 year of age. PRIMARY AND SECONDARY OUTCOME MEASURES: Prevalence of and factors associated with medication use for acute/short-term illnesses, chronic/long-term disorders and over-the-counter (OTC) medication use. RESULTS: The study population included 9459 women, of which 81.2% reported use of at least one medication (prescribed or OTC) during pregnancy. Overall, OTC medication use occurred in 66.9% of the pregnancies, whereas 68.4% and 17% of women reported use of at least one medication for treatment of acute/short-term illnesses and chronic/long-term disorders, respectively. The extent of self-reported medicated illnesses and types of medication used by indication varied across regions, especially in relation to urinary tract infections, depression or OTC nasal sprays. Women with higher age or lower educational level, housewives or women with an unplanned pregnancy were those most often reporting use of medication for chronic/long-term disorders. Immigrant women in Western (adjusted OR (aOR): 0.55, 95% CI 0.34 to 0.87) and Northern Europe (aOR: 0.50, 95% CI 0.31 to 0.83) were less likely to report use of medication for chronic/long-term disorders during pregnancy than non-immigrants. CONCLUSIONS: In this study, the majority of women in Europe, North America, South America and Australia used at least one medication during pregnancy. There was a substantial inter-region variability in the types of medication used.
Resumo:
Recognition and identification processes for deceased persons. Determining the identity of deceased persons is a routine task performed essentially by police departments and forensic experts. This thesis highlights the processes necessary for the proper and transparent determination of the civil identities of deceased persons. The identity of a person is defined as the establishment of a link between that person ("the source") and information pertaining to the same individual ("identifiers"). Various identity forms could emerge, depending on the nature of the identifiers. There are two distinct types of identity, namely civil identity and biological identity. The paper examines four processes: identification by witnesses (the recognition process) and comparisons of fingerprints, dental data and DNA profiles (the identification processes). During the recognition process, the memory function is examined and helps to clarify circumstances that may give rise to errors. To make the process more rigorous, a body presentation procedure is proposed to investigators. Before examining the other processes, three general concepts specific to forensic science are considered with regard to the identification of a deceased person, namely, matter divisibility (Inman and Rudin), transfer (Locard) and uniqueness (Kirk). These concepts can be applied to the task at hand, although some require a slightly broader scope of application. A cross comparison of common forensic fields and the identification of deceased persons reveals certain differences, including 1 - reverse positioning of the source (i.e. the source is not sought from traces, but rather the identifiers are obtained from the source); 2 - the need for civil identity determination in addition to the individualisation stage; and 3 - a more restricted population (closed set), rather than an open one. For fingerprints, dental and DNA data, intravariability and intervariability are examined, as well as changes in these post mortem (PM) identifiers. Ante-mortem identifiers (AM) are located and AM-PM comparisons made. For DNA, it has been shown that direct identifiers (taken from a person whose civil identity has been alleged) tend to lead to determining civil identity whereas indirect identifiers (obtained from a close relative) direct towards a determination of biological identity. For each process, a Bayesian model is presented which includes sources of uncertainty deemed to be relevant. The results of the different processes combine to structure and summarise an overall outcome and a methodology. The modelling of dental data presents a specific difficulty with respect to intravariability, which in itself is not quantifiable. The concept of "validity" is, therefore, suggested as a possible solution to the problem. Validity uses various parameters that have an acknowledged impact on teeth intravariability. In cases where identifying deceased persons proves to be extremely difficult due to the limited discrimination of certain procedures, the use of a Bayesian approach is of great value in bringing a transparent and synthetic value. RESUME : Titre: Processus de reconnaissance et d'identification de personnes décédées. L'individualisation de personnes décédées est une tâche courante partagée principalement par des services de police, des odontologues et des laboratoires de génétique. L'objectif de cette recherche est de présenter des processus pour déterminer valablement, avec une incertitude maîtrisée, les identités civiles de personnes décédées. La notion d'identité est examinée en premier lieu. L'identité d'une personne est définie comme l'établissement d'un lien entre cette personne et des informations la concernant. Les informations en question sont désignées par le terme d'identifiants. Deux formes distinctes d'identité sont retenues: l'identité civile et l'identité biologique. Quatre processus principaux sont examinés: celui du témoignage et ceux impliquant les comparaisons d'empreintes digitales, de données dentaires et de profils d'ADN. Concernant le processus de reconnaissance, le mode de fonctionnement de la mémoire est examiné, démarche qui permet de désigner les paramètres pouvant conduire à des erreurs. Dans le but d'apporter un cadre rigoureux à ce processus, une procédure de présentation d'un corps est proposée à l'intention des enquêteurs. Avant d'entreprendre l'examen des autres processus, les concepts généraux propres aux domaines forensiques sont examinés sous l'angle particulier de l'identification de personnes décédées: la divisibilité de la matière (Inman et Rudin), le transfert (Locard) et l'unicité (Kirk). Il est constaté que ces concepts peuvent être appliqués, certains nécessitant toutefois un léger élargissement de leurs principes. Une comparaison croisée entre les domaines forensiques habituels et l'identification de personnes décédées montre des différences telles qu'un positionnement inversé de la source (la source n'est plus à rechercher en partant de traces, mais ce sont des identifiants qui sont recherchés en partant de la source), la nécessité de devoir déterminer une identité civile en plus de procéder à une individualisation ou encore une population d'intérêt limitée plutôt qu'ouverte. Pour les empreintes digitales, les dents et l'ADN, l'intra puis l'inter-variabilité sont examinées, de même que leurs modifications post-mortem (PM), la localisation des identifiants ante-mortem (AM) et les comparaisons AM-PM. Pour l'ADN, il est démontré que les identifiants directs (provenant de la personne dont l'identité civile est supposée) tendent à déterminer une identité civile alors que les identifiants indirects (provenant d'un proche parent) tendent à déterminer une identité biologique. Puis une synthèse des résultats provenant des différents processus est réalisée grâce à des modélisations bayesiennes. Pour chaque processus, une modélisation est présentée, modélisation intégrant les paramètres reconnus comme pertinents. À ce stade, une difficulté apparaît: celle de quantifier l'intra-variabilité dentaire pour laquelle il n'existe pas de règle précise. La solution préconisée est celle d'intégrer un concept de validité qui intègre divers paramètres ayant un impact connu sur l'intra-variabilité. La possibilité de formuler une valeur de synthèse par l'approche bayesienne s'avère d'une aide précieuse dans des cas très difficiles pour lesquels chacun des processus est limité en termes de potentiel discriminant.
Resumo:
The method of instrumental variable (referred to as Mendelian randomization when the instrument is a genetic variant) has been initially developed to infer on a causal effect of a risk factor on some outcome of interest in a linear model. Adapting this method to nonlinear models, however, is known to be problematic. In this paper, we consider the simple case when the genetic instrument, the risk factor, and the outcome are all binary. We compare via simulations the usual two-stages estimate of a causal odds-ratio and its adjusted version with a recently proposed estimate in the context of a clinical trial with noncompliance. In contrast to the former two, we confirm that the latter is (under some conditions) a valid estimate of a causal odds-ratio defined in the subpopulation of compliers, and we propose its use in the context of Mendelian randomization. By analogy with a clinical trial with noncompliance, compliers are those individuals for whom the presence/absence of the risk factor X is determined by the presence/absence of the genetic variant Z (i.e., for whom we would observe X = Z whatever the alleles randomly received at conception). We also recall and illustrate the huge variability of instrumental variable estimates when the instrument is weak (i.e., with a low percentage of compliers, as is typically the case with genetic instruments for which this proportion is frequently smaller than 10%) where the inter-quartile range of our simulated estimates was up to 18 times higher compared to a conventional (e.g., intention-to-treat) approach. We thus conclude that the need to find stronger instruments is probably as important as the need to develop a methodology allowing to consistently estimate a causal odds-ratio.