231 resultados para Procédure pénale
Resumo:
L'article présente les étapes de la mise en place d'une veille bibliographique (ou veille scientifique) thématique effectuée conjointement depuis 2005 par 4 institutions francophones du domaine de la santé au travail : l'INRS (France), l'IRSST (Québec), l'IST (Suisse) et l'UCL (Belgique).La thématique suivie est celle de la surveillance biologique de l'exposition aux produits chimiques en milieu de travail. Les données recueillies et mises en forme par les documentalistes servent aux chercheurs spécialistes du sujet non seulement pour suivre les nouveautés du domaine, mais aussi pour documenter des cours et mettre à jour des guides de surveillance biologique. Les différentes étapes de l'approche méthodologique du projet sont décrites : le choix des bases de données à interroger et la mise au point de la stratégie de recherche, la mise en place d'une procédure de partage des tâches pour toutes les étapes du processus de veille qui se répètent à chaque mise à jour (interrogation, création de bases de données avec le logiciel Reference Manager, mise en forme et indexation des références, création et mise à disposition des partenaires des bases de données consolidées au fil du temps avec tous les articles analysés), les moyens administratifs, humains et techniques d'échange de fichiers et les essais pour élargir la veille à la surveillance de pages Web sélectionnées.Un bilan chiffré des six années de la veille est également donné.L'information récoltée et analysée durant les deux dernières années par les partenaires du projet fera l'objet d'un second article axé sur les principales tendances de la thématique choisie.
Resumo:
Bien que le manuel du WISC-IV fasse référence à la théorie de Cattell-Horn-Carroll (CHC), les indices calculés à partir de cette batterie (ICV, IRP, IMT et IVT) n'ont pas été définis sur la base du modèle CHC. Afin d'apporter un éclairage complémentaire sur les performances observées, nous recommandons néanmoins d'examiner les scores des subtests du WISC-IV en référence à la nomenclature des aptitudes cognitives proposées dans le modèle CHC. La première partie de cet article présente les normes francophones pour cinq facteurs CHC du WISC-IV, à savoir le raisonnement fluide (Gf), compréhension-connaissances (Gc), le traitement visuel (Gv), la mémoire à court terme (Gsm) et la vitesse de traitement (Gs), établies en utilisant une procédure d'approximation statistique. La seconde partie présente l'examen de la validité de ces normes, confrontées à des données recueillies sur un échantillon de 250 enfants. Nos résultats montrent que les corrélations entre les indices classiques du WISC-IV (ICV, IRP, IMT et IVT) et les scores composites CHC sont élevées, attestant de la validité des scores CHC. Ces normes permettent de calculer et d'utiliser les scores composites CHC en complément des indices standard, dans le cadre d'analyses normatives et ipsatives.
Resumo:
Plusieurs études ont souligné que la qualité de l'attachement aurait un rôle à jouer dans les répercussions psychologiques d'événements potentiellement traumatiques, tels que l'abus sexuel. Cette étude se propose d'investiguer le rôle médiateur de l'attachement sur l'association entre abus sexuel, survenu dans l'enfance et/ou l'adolescence, et expériences dissociatives chez des femmes adultes. Deux groupes ont été comparés, l'un de 28 femmes ayant vécu des expériences d'abus sexuel dans l'enfance et l'autre composé de 15 femmes témoin qui n'ont pas connu ce type d'expérience. Les femmes qui ont vécu des abus sexuels pendant l'enfance obtiennent des scores significativement plus élevés de dissociation, en comparaison à des femmes témoin. Les femmes abusées ont des scores plus élevés d'attachement « insécure » et plus particulièrement « craintif» tels que définis dans le modèle de Bartholomew et Horowitz (1991). Finalement, les analyses de médiation, utilisant la procédure de Baron et Kenny (1986), indiquent que l'attachement « craintif» a un effet médiateur sur le lien entre abus sexuel et dissociation. Cette forme d'attachement représenterait ainsi un facteur de vulnérabilité pour des troubles dissociatifs chez des individus confrontés à des événements potentiellement traumatisants.
Resumo:
Contexte : Les infections du site opératoire (Surgical Site Infections - SSI) sont des complications fréquentes des procédures chirurgicales et un problème majeur de la santé publique. La surveillance constitue un élément essentiel de la prévention des SSI. Les résultats publiés récemment par certains pays européens suggèrent un impact positif qu'un réseau de surveillance active peut avoir sur le taux de SSI dans les hôpitaux participants. Objectif : La présente étude évalue les effets de la surveillance sur l'incidence des SSI en analysant les résultats du programme suisse multicentrique de surveillance des SSI. Méthodes : L'étude porte sur les 13 premières années du programme, regroupant au total 23 hôpitaux périphériques, cantonaux et universitaires de la Suisse occidentale et du sud. Ce programme, qui a intégré le consortium national Swissnoso en 2011, a été organisé conformément aux principes du système américain de National Nosocomial Infections Surveillance (NNIS). La surveillance incluait les procédures de la chirurgie viscérale (appendicectomie, cholécystectomie, chirurgie du colon et herniaire) et de l'orthopédie (arthroplastie de la hanche et du genou). Les données démographiques et cliniques étaient recueillies de manière standardisée par les infirmières cliniciennes en infectiologie pendant et après l'hospitalisation. Les rapports annuels, résumant les taux des SSI pour chaque type de procédure ainsi que la comparaison inter-hospitalière des risques relatifs ajustés à l'index NNIS, ont été discutés au sein de chaque établissement entre le comité des chirurgiens et le responsable local du programme. Analyses statistiques : Les taux cumulatifs des SSI ont été calculés pour chaque procédure chirurgicale. Une stratification selon le type de SSI (superficielle, profonde, organe/espace) et selon l'index NNIS a été respectée. Les facteurs de risque des SSI ont été identifiés pour chaque procédure par les analyses univariées des caractéristiques du patient (âge, sexe, score ASA, temps avant l'opération) et celles de l'opération (classe de contamination, durée de la chirurgie, urgence, antibioprophylaxie, laparoscopie, procédures multiples, ré¬intervention). Afin d'évaluer l'effet de la durée de la surveillance sur le taux des SSI, le temps de participation au programme a été calculé et stratifié par périodes d'un an par hôpital et par procédure. La corrélation entre la durée de la surveillance et les SSI a été estimée en utilisant les modèles de régression logistique pour chaque procédure avec l'ajustement pour les variables avec p ^ 0.2. Dans toutes les analyses, la valeur p < 0.05 était considéré significative. Résultats : Les taux globaux des SSI étaient : 18.2% pour les colectomies, 6.4% pour les appendicectomies, 2.3% pour les cholécystectomies, 1.7% pour les cures des hernies et 1.6% et 1.3% pour les arthroplasties de la hanche et du genou, respectivement. L'incidence des SSI post-hospitalières allait du 21% pour les colectomies au 94% pour les arthroplasties du genou. Concernant les facteurs prédictifs des SSI, l'index NNIS était valable seulement pour la chirurgie gastro-intestinale, la laparoscopie étant globalement protectrice mais associée à un taux d'infections profondes plus élevé après l'appendicectomie. La durée de la participation au programme de surveillance n'apportait pas de diminution des taux des SSI dans aucune procédure incluse dans l'étude. Conclusions : L'étude confirme l'impact de la surveillance post-hospitalière sur le taux des SSI, l'effet protectrice de la laparoscopie ainsi que l'absence de la valeur prédictive de l'index NNIS en orthopédie. Contrairement aux autres programmes européens nous n'avons pas détecté d'effet positif de la durée de la surveillance sur le taux des SSI. Les résultats obtenus ouvrent la discussion sur l'utilisation plus effective des données de surveillance des SSI.
Resumo:
Objectifs: Etudier et décrire étape par étape les aspects techniques de la thérapie par cryoablation percutanée ciblée (CPC). Matériels et méthodes: CPC est réalisée par un : adiologue interventionnel sous guidage échographique et/ou tomodensitométrique. Résultats: CPC est un traitement peu invasif qui utilise un froid extrême pour geler et détruire des tumeurs localisées dans le foie, les reins, la prostate, les poumons, les os, les seins et la peau. L'imagerie est utilisée pour guider le placement d'un ou plusieurs applicateurs à travers la peau jusqu'au site cible et surveiller le processus de congélation. De l'azote liquide ou du gaz d'argon circule au sein d'une aiguille-applicateur (CryoPhobe) créant froid intense au contact de la cible. Une sonde indépendante surveille la température du tissu environnant. Le froid est maintenu pendant au moins 20 minutes suivi d'un dégel actif de la "boule de glace". La procédure est ensuite répétée pour maximiser la destruction tumorale. La procédure dure environ 1 heure et se fait de manière ambulatoire. Conclusion: CPC est un traitement alternatif efficace du cancer chez des patients sélectionnés. Les propriétés destructrices des tissus tumoraux sont bien établies pour le cancer du rein, cependant des investigations supplémentaires sont nécessaires pour déterminer l'efficacité de CPC à long terme dans d'autres indications.
Resumo:
La ponction lombaire (PL) est un geste fréquent en médecine interne, en particulier dans les services d'urgences. Dans cet article, nous présentons une description détaillée de ce geste en donnant quelques conseils pratiques pour sa réussite, la gestion des cas difficiles et la prévention des complications. Nous abordons aussi des questions pratiques comme l'indication à une imagerie cérébrale avant le geste et la mobilisation après la PL. La connaissance des indications, des détails de la procédure ainsi que des complications potentielles et de leur prise en charge constitue la base pour une information complète à donner au patient. Lumbar puncture (LP) is a procedure frequently performed by internists. The aim of this article is to describe in detail the procedure, to give some practical advices to always succeed in doing a lumbar puncture and to discuss the most frequent complications, how to prevent them and how to treat them. We will also answer some frequently asked questions, such as indications to perform neuroimaging before a lumbar puncture, or patient mobilisation after LP. Knowledge of these points is key to give a complete information to the patients and obtain an informed consent
Resumo:
Messages à retenir: Connaître le principe des principales chirurgies du segment I de l'aorte (Tirone David, Ross, Bentall..). Le scanner MD est l'imagerie clé pour visualiser la réimplantation des coronaires natives ou un pontage associé. Le protocole scanographique le plus courant est une acquisition synchronisée en mode prospectif. Le mode rétrospectif peut être utilisé en cas de suspicion de dysfonction d'une valve mécanique. Après une TAVI, le scanner est un examen clé pour juger de la hauteur, de la circularité, de l'adossement de la prothèse et de son rapport avec les coronaires. Résumé: Les aspects post opératoires de l'aorte ascendante sont au mieux étudiés par un scanner multidétecteur injecté avec synchronisation ECG. Le mode prospectif avec bas kilovoltage est privilégié pour réduire la dose dans cette population majoritairement jeune. La communication avec l'équipe chirurgicale est importante pour l'analyse des images (le radiologue doit connaître le type de montage effectué). Parmi les gestes de cardiologie interventionnelle, la TAVI est devenue courante et les éléments de contrôle de la procédure par le scanner doivent être connus.
Resumo:
Le diagnostic final des pathologies impliquant le système hématopoïétique tel que les leucémies, pancytopénies inexpliquées ou autres désordres médullaires, requiert une ponction biopsie de moelle. Cette procédure relativement invasive doit être maîtrisée non seulement par l'hématologue, mais également par l'interniste. Il est crucial d'en connaître les indications et contre-indications et de pouvoir prévenir les complications par une bonne connaissance de celles-ci. Cet article revoit ces différents éléments et apporte les détails pratiques de la procédure ainsi que le matériel nécessaire. The definitive diagnosis of several hematological diseases, as for instance leukaemias, unexplained pancytopenias and other bone marrow disorders, requires a bone marrow aspiration and biopsy. Not only haematologists, but also internists, need to master this rather invasive procedure. The knowledge of indications, contra-indications, potential complications and their prevention of its complications is of utmost importance. This article reviews these topics about bone marrow biopsy, giving some practical advices on this procedure
Resumo:
Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management
Resumo:
L'indice d'aptitude général (IAG) a été développé dans le WISC-III pour estimer le niveau cognitif général. Il s'agissait de proposer une alternative au QI Total. Plus récemment, l'indice de compétence cognitive (ICC) a été proposé. Jusqu'à il y a peu, seules les normes américaines de ces indices étaient disponibles ; les normes franc ̧ aises IAG et ICC pour le WISC-IV ont été récemment développées à partir d'une procédure d'approximation statistique. Toutefois, les normes développées de cette manière seraient moins appro- priées que les normes construites sur la base d'un échantillon. Cette étude vise à comparer les normes IAG et ICC développées à partir d'une procédure d'approximation statistique à celles créées à partir d'un échantillon de 182 enfants âgés de huit à 12 ans. Les corrélations entre les deux types de normes sont de 0,997 pour IAG et de 0,999 pour ICC ; les différences absolues moyennes sont respectivement de 5,38 et de 2,24 points pour IAG et ICC. Enfin, pour les enfants présentant un score IAGS inférieur à 89, les normes IAGE semblent indiquer que leurs compétences seraient inférieures d'environ 8-10 points à celui indiqué par le score IAGS. Les résultats de cette étude indiquent que les scores IAG et ICC peuvent constituer des informations utiles sur les capacités cognitives de l'enfant.
Resumo:
Par le biais d'une procédure Test-Retest, la stabilité à long terme des indices standard du WISC-IV français a été évaluée. L'intervalle moyen entre les deux passations est de 2,33 ans. L'échantillon comprend 96 enfants « tout venant » âgés de huit à 12 ans. Les comparaisons entre les moyennes des deux passations ne montrent pas de différence significative pour indice de compréhension verbale (ICV), indice de raisonnement perceptif (IRP), indice de mémoire de travail (IMT), indice d'aptitude générale (IAG) et QIT. Au niveau interindividuel, les coefficients de corrélations témoignent d'une bonne stabilité à long terme pour ICV, IAG et QIT (allant de 0,81 à 0,82). Une analyse des différences de performances entre les deux passations indique une stabilité intra-individuelle satisfaisante pour IMT et IAG. Seul IAG présente donc une stabilité à long terme satisfaisante au niveau inter- et intra-individuel. By a Test-Retest procedure, this study explores the long-term stability of the French WISC-IV index scores. The average Test-Retest interval was 2.33 years. The sample consisted of 96 non-clinical children aged between 8 and 12 years. Mean difference between the two testings was not statistically significant for VCI, PRI, WMI, GAI and FSIQ. Test-Retest reliability correlations between the two assessments are high for VCI, GAI and FSIQ (ranging from .81 to .82). An analysis of the performance differences between two assessments indicates intra-individual stability for WMI and GAI. In sum, only GAI demonstrates reliable long-term stability at an inter-and intra-individual level.