999 resultados para Redondance analytique des données


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le concept de mécanismes de défense en psychanalyse fut introduit pour la première fois par S. Freud en¦1894 dans l'ouvrage Les psychonévroses de défense. Selon la définition qu'on lui donne de nos jours, ce¦concept regroupe « les processus psychiques inconscients visant à réduire ou annuler les effets désagréables des dangers réels ou imaginaires en remaniant les réalités internes et / ou externes et dont les manifestations peuvent être conscientes ou inconscientes1.»¦Les mécanismes de défense ne concernent d'ailleurs pas seulement les personnes souffrant d'un trouble¦psychiatrique, chacun de nous utilisant quotidiennement toutes sortes de défenses de quelque niveau de¦maturité qu'elles soient, nous permettant de nous adapter au contraintes affectives de tous les jours. Ils¦représentent de plus l'un des rares concepts en psychanalyse se prêtant à l'étude empirique, c'est pourquoi ils revêtent un grand intérêt dans la recherche actuellement. Grâce à l'élaboration d'une échelle d'évaluation de ces mécanismes par J. C. Perry (2009), le Defense Mechanisms Rating Scale, il est devenu possible de mettre en évidence « des liens entre les défenses et le niveau d'adaptation des patients, entre les défenses et la psychopathologie, et de montrer l'évolution des défenses au cours des psychothérapies psychanalytiques2.»¦Le DMRS comprend 28 défenses classées en 7 niveaux hiérarchiques en fonction de leur niveau¦d'adaptation. Il ne comprend cependant pas encore les défenses dites psychotiques. Toutefois, un groupe de travail s'attache à construire, puis à valider un instrument d'évaluation de ces mécanismes sous la forme d'un addendum au DMRS.¦Le but de mon travail sera d'évaluer quatre entretiens, deux de patients souffrant d'un trouble du spectre de la schizophrénie, deux d'un trouble bipolaire, sur la base des données recueillies par l'institut de¦psychothérapie du CHUV. A l'aide du DMRS, j'effectuerai une cotation de leur mécanismes de défense¦respectifs. Pour ce faire, il s'agira dans un premier temps de me familiariser avec l'outil qu'est le DMRS afin de pouvoir, dans un deuxième temps, mettre en évidence et analyser les mécanismes de défense utilisés par les patients lors de ces entretiens psychothérapeutiques. Les patients devraient montrer un niveau défensif global comparable, en vue de la gravité de leur pathologie. Cependant, des différences devraient apparaître quant aux catégories de défenses utilisées par chaque patient, puisque celles-ci dépendent de leur pathologie ainsi que de leur fonctionnement psychique pour faire face aux difficultés qu'il rencontre. Enfin, leurs niveaux défensifs seront pondérés par ce dont ils parleront dans l'entretien en question, en lien avec les interventions du thérapeute.¦Ce travail devrait me permettre de montrer que tout patient présente un large éventail de défenses, et pas¦seulement des défenses dites psychotiques. Il s'agira aussi de monter quelles sont les applications possibles et les limites de l'outil qu'est le DMRS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce travail porte sur le développement des compétences sociales et des cercles sociaux à l'adolescence. Il s'intéresse plus particulièrement à l'effet au cours du temps que peuvent avoir les nouveaux moyens de communication électronique (MCE) sur ces deux aspects de la socialisation. Trois parties principales se dégagent de ce travail. La première partie présente le développement d'un outil multidimensionnel destiné à l'évaluation des compétences sociales et permettant de les distinguer en fonction du contexte d'interaction (online vs. offline). La seconde partie porte sur la comparaison des compétences sociales et de la taille du cercle social de 329 adolescents de 7e et de 8e année primaire, en fonction de leur utilisation, ou non, des MCE. Elle met en évidence que ces deux aspects diffèrent de manière statistiquement significative entre les deux groupes, en faveur des utilisateurs de MCE. La troisième partie se centre sur l'utilisation de différents MCE et sur les effets différentiels qu'ils peuvent avoir au cours du temps sur ces deux aspects de la socialisation. Les analyses des données longitudinales mettent en évidence que l'utilisation de sites de réseaux sociaux (SRS) est particulièrement susceptible d'améliorer les compétences sociales et d'augmenter la taille du cercle social. Un modèle dans lequel les compétences sociales jouent un rôle de médiateur entre l'utilisation de SRS et la taille du cercle social est finalement postulé. - This work's topic concerns the development of social skills and social network size during adolescence. It examines more particularly the effects that new online communication media (OCM) may have on these two aspects of adolescent socialization. It is subdivided in three distinct parts. The first part presents the development of a multidimensional tool designed to assess social skills in two different contexts of interaction (online vs. offline). The second part compares the social skills and social network size of 329 adolescents depending on their use, or not, of OCM. It highlights significant differences on these two aspects between users and non-users, in favor of OCM users. The third part focuses on the differential effects that six OCM may have over time on these two aspects of socialization. Longitudinal data analyses highlight that the use of social network sites (SNS) is particularly likely to improve social skills and to increase social network size. A model in which social skills mediate the relationship between SNS use and social network size is finally postulated.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les laves torrentielles sont l'un des vecteurs majeurs de sédiments en milieu montagneux. Leur comportement hydrogéomorphologique est contrôlé par des facteurs géologique, géomorphologique, topographique, hydrologique, climatique et anthropique. Si, en Europe, la recherche s'est plus focalisée sur les aspects hydrologiques que géomorphologiques de ces phénomènes, l'identification des volumes de sédiments potentiellement mobilisables au sein de petits systèmes torrentiels et des processus responsables de leur transfert est d'une importance très grande en termes d'aménagement du territoire et de gestion des dangers naturels. De plus, une corrélation entre des événements pluviométriques et l'occurrence de laves torrentielles n'est pas toujours établie et de nombreux événements torrentiels semblent se déclencher lorsqu'un seuil géomorphologique intrinsèque (degré de remplissage du chenal) au cours d'eau est atteint.Une méthodologie pragmatique a été développée pour cartographier les stocks sédimentaires constituant une source de matériaux pour les laves torrentielles, comme outil préliminaire à la quantification des volumes transportés par ces phénomènes. La méthode s'appuie sur des données dérivées directement d'analyses en environnement SIG réalisées sur des modèles numériques d'altitude de haute précision, de mesures de terrain et d'interprétation de photographies aériennes. La méthode a été conçue pour évaluer la dynamique des transferts sédimentaires, en prenant en compte le rôle des différents réservoirs sédimentaires, par l'application du concept de cascade sédimentaire sous un angle cartographique.Les processus de transferts sédimentaires ont été étudiés dans deux bassins versants des Alpes suisses (torrent du Bruchi, à Blatten beiNaters et torrent du Meretschibach, à Agarn). La cartographie géomorphologique a été couplée avec des mesures complémentaires permettant d'estimer les flux sédimentaires et les taux d'érosion (traçages de peinture, piquets de dénudation et utilisation du LiDAR terrestre). La méthode proposée se révèle innovatrice en comparaison avec la plupart des systèmes de légendes géomorphologiques existants, qui ne sont souvent pas adaptés pour cartographier de manière satisfaisante les systèmes géomorphologiques complexes et actifs que sont les bassins torrentiels. L'intérêt de cette méthode est qu'elle permet l'établissement d'une cascade sédimentaire, mais uniquement pour des systèmes où l'occurrence d'une lave torrentielle est contrôlé par le degré de remplissage en matériaux du chenal. Par ailleurs, le produit cartographique ne peut être directement utilisé pour la création de cartes de dangers - axées sur les zones de dépôt - mais revêt un intérêt pour la mise en place de mesures de correction et pour l'installation de systèmes de monitoring ou d'alerte.La deuxième partie de ce travail de recherche est consacrée à la cartographie géomorphologique. Une analyse a porté sur un échantillon de 146 cartes ou systèmes de légende datant des années 1950 à 2009 et réalisés dans plus de 40 pays. Cette analyse a permis de mettre en évidence la diversité des applications et des techniques d'élaboration des cartes géomorphologiques. - Debris flows are one of the most important vectors of sediment transfer in mountainous areas. Their hydro-geomorphological behaviour is conditioned by geological, geomorphological, topographical, hydrological, climatic and anthropic factors. European research in torrential systems has focused more on hydrological processes than on geomorphological processes acting as debris flow triggers. Nevertheless, the identification of sediment volumes that have the potential to be mobilised in small torrential systems, as well as the recognition of processes responsible for their mobilisation and transfer within the torrential system, are important in terms of land-use planning and natural hazard management. Moreover, a correlation between rainfall and debris flow occurrence is not always established and a number of debris flows seems to occur when a poorly understood geomorphological threshold is reached.A pragmatic methodology has been developed for mapping sediment storages that may constitute source zone of bed load transport and debris flows as a preliminary tool before quantifying their volumes. It is based on data directly derived from GIS analysis using high resolution DEM's, field measurements and aerial photograph interpretations. It has been conceived to estimate sediment transfer dynamics, taking into account the role of different sediment stores in the torrential system applying the concept of "sediment cascade" in a cartographic point of view.Sediment transfer processes were investigated in two small catchments in the Swiss Alps (Bruchi torrent, Blatten bei Naters and Meretschibach torrent, Agarn). Thorough field geomorphological mapping coupled with complementary measurements were conducted to estimate sediment fluxes and denudation rates, using various methods (reference coloured lines, wooden markers and terrestrial LiDAR). The proposed geomorphological mapping methodology is quite innovative in comparison with most legend systems that are not adequate for mapping active and complex geomorphological systems such as debris flow catchments. The interest of this mapping method is that it allows the concept of sediment cascade to be spatially implemented but only for supply-limited systems. The map cannot be used directly for the creation of hazard maps, focused on the deposition areas, but for the design of correction measures and the implementation of monitoring and warning systems.The second part of this work focuses on geomorphological mapping. An analysis of a sample of 146 (extracts of) maps or legend systems dating from the middle of the 20th century to 2009 - realised in more than 40 different countries - was carried out. Even if this study is not exhaustive, it shows a clear renewed interest for the discipline worldwide. It highlights the diversity of applications, techniques (scale, colours and symbology) used for their conception.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Une recherche du Fonds national et de la SUVA [sur la réinsertion professionnelle des travailleurs absents en raison de troubles musculosquelettiques dorsaux] dévoile plusieurs failles dans la gestion des absences. Ce qui freine la détection puis la réinsertion de collaborateurs souffrant de mal de dos. La récolte des données est souvent incomplète et la coordination RH-managers-partenaires externes est lacunaire. Enquête et quelques pistes pour corriger le tir. [Ed.]

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction: Les personnes âgées de 65 ans ou plus représentent 15% de la population générale dans les pays occidentaux. Le vieillissement de cette population va accroître encore cette proportion pour atteindre 20% dès 2030. Les urgences gériatriques représentent environ 15% des admissions dans les services d'accueil et de traitement des urgences (SAU), mais peu de données pré-hospitalières existent. Méthode: Etude rétrospective entre 2003 et 2007 des interventions des services d'urgences pré-hospitaliers (ambulances, SMUR) de notre région (env. 670'000 habitants) à partir des rapports de missions effectués pour chaque intervention par ces entités (n = 42'000). Extraction des données démographiques (âge, sexe), des lieux de prise en charge, des degrés de gravité (score NACA) et des catégories diagnostiques de la population âgée de 65 ans ou plus. Résultats: Les urgences gériatriques représentent entre 40 et 50% des interventions pré-hospitalières totales (ambulances, SMUR). Ces chiffres sont encore entre 4 et 8% pour les sujets très âgés de 90 ans et plus. Le sexe ratio H : F est de 0,72 pour les interventions des ambulances, alors qu'il est de 1,03 pour celles des SMUR. Le lieu de prise en charge est le domicile dans près de 70% des cas. Près des ¾ des interventions sont bénignes (degrés de gravité NACA 0-3), avec plus de 92% des interventions relevant de problèmes de type maladies (et non d'accidents). Pour les cas pris en charge par les SMUR, près de 70% sont de nature cardio-vasculaires. Discussion: La charge que représente les urgences gériatriques pour le secteur pré-hospitalier n'est pas négligeable et nécessite dès aujourd'hui une réflexion afin de dimensionner ce secteur aux exigences de ce type d'urgences pour le futur proche. Non seulement les moyens (personnel, véhicules, matériel) devront être proportionnés, mais aussi les particularités de la prise en charge, la formation spécifique et les aspects éthiques. Ce dernier aspect qui n'est pas des moindres et les limites de la prise en charge devront également être abordés. Conclusion: Les urgences gériatriques représentent près de la moitié des interventions des services pré-hospitaliers (ambulances, SMUR). Le vieillissement à venir de la population risque de mettre encore plus ces services sous «haute tension» et doit faire réfléchir ses acteurs et ses décideurs à s'adapter à cette évolution incontournable.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte: L'intervention "Break The Chains" 2012 de l'OFSP a l'intention des gays visait à informer sur la primo-infection et a inciter a un test de dépistage VIH. Design: L'évaluation a recouru a un design Pre-Post avec 2 dispositifs: A) enquête par questionnaire Internet avec une vague avant la campagne et une après (transversal repete); B) 1) relevé centré sur le canton de Zurich du nombre de test effectues par des gays durant le premier semestre 2012 utilisant des données récoltées par Sentinella, par les centres de test utilisant l'application BerDa et auprès des praticiens de HIV-Prakt; et 2) recueil d'information par le questionnaire internet post-intervention des intentions d'effectuer un test VIH. Résultats: 366 HSH ont répondu au questionnaire de la phase pré-, et 964 à la phase post-intervention. 69.8% ont entendu parler de la campagne. Parmi les répondants ayant identifie le message, 48.6% se sont sentis concernes. Avant la campagne, 34.2% des répondants identifiaient les 4 symptômes de la primo-infection, 46.4% se sentaient bien informes et 79.2% connaissaient le délai minimum pour qu'un test informe sur une absence d'infection; après la campagne, ces proportions étaient 39.6%, 62.0% et 85.2%. 17.1% des répondants ont déclaré avoir fait/avoir l'intention de faire, un test VIH suite à la campagne. Le nombre de tests effectues par les répondants Internet montre effectivement un pic dans le 2e trimestre 2012; les données BerDa montrent une stabilité du nombre total de tests. Les données épidémiologiques montrent une augmentation de la proportion et du nombre d'infections récentes détectées durant ce 2e trimestre, mais une diminution des infections anciennes. Conclusions: L'intervention BTC a amélioré légèrement les connaissances relatives à la phase de primo-infection du VIH et a la nécessité d'effectuer un test VIH. Elle semble avoir incite le public cible à effectuer un test VIH qui n'aurait pas été réalisé autrement et a peut-être ainsi contribuer a la détection d'infections récentes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Summary : International comparisons in the area of victimization, particularly in the field of violence against women, are fraught with methodological problems that previous research has not systematically addressed, and whose answer does not seem to be agreed up~n. For obvious logistic and financial reasons, international studies on violence against women (i.e. studies that administer the same instrument in different countries). are seldom; therefore, researchers are bound to resort to secondary comparisons. Many studies simply juxtapose their results to the ones of previous wòrk or to findings obtained in different contexts, in order to offer an allegedly comparative perspective to their conclusions. If, most of the time, researchers indicate the methodological limitations of a direct comparison, it is not rare that these do not result in concrete methodological controls. Yet, many studies have shown the influence of surveys methodological parameters on findings, listing recommendations fora «best practice» of research. Although, over the past decades, violence against women surveys have become more and more similar -tending towards a sort of uniformization that could be interpreted as a passive consensus -these instruments retain more or less subtle differences that are still susceptible to influence the validity of a comparison. Yet, only a small number of studies have directly worked on the comparability of violence against women data, striving to control the methodological parameters of the surveys in order to guarantee the validity of their comparisons. The goal of this work is to compare data from two national surveys on violence against women: the Swiss component of the International Violence Against Women Survey [CH-IVAWS] and the National Violence Against Women Survey [NVAWS] administered in the United States. The choice of these studies certainly ensues from the author's affiliations; however, it is far from being trivial. Indeed, the criminological field currently endows American and Anglo-Saxon literature with a predominant space, compelling researchers from other countries to almost do the splits to interpret their results in the light of previous work or to develop effective interventions in their own context. Turning to hypotheses or concepts developed in a specific framework inevitably raises the issue of their applicability to another context, i.e. the Swiss context, if not at least European. This problematic then takes on an interest that goes beyond the particular topic of violence against women, adding to its relevance. This work articulates around three axes. First, it shows the way survey characteristics influence estimates. The comparability of the nature of the CH-IVAWS and NVAWS, their sampling design and the characteristics of their administration are discussed. The definitions used, the operationalization of variables based on comparable items, the control of reference periods, as well as the nature of the victim-offender relationship are included among controlled factors. This study establishes content validity within and across studies, presenting a systematic process destined to maximize the comparability of secondary data. Implications of the process are illustrated with the successive presentation of comparable and non-comparable operationalizations of computed variables. Measuring violence against. women in Switzerland and the United-States, this work compares the prevalence of different forms (threats, physical violence and sexual violence) and types of violence (partner and nonpartner violence). Second, it endeavors to analyze concepts of multivictimization (i.e. experiencing different forms of victimization), repeat victimization (i.e. experiencing the same form of violence more than once), and revictimization (i.e. the link between childhood and adulthood victimization) in a comparative -and comparable -approach. Third, aiming at understanding why partner violence appears higher in the United States, while victims of nonpartners are more frequent in Switzerland, as well as in other European countries, different victimization correlates are examined. This research contributes to a better understanding of the relevance of controlling methodological parameters in comparisons across studies, as it illustrates, systematically, the imposed controls and their implications on quantitative data. Moreover, it details how ignoring these parameters might lead to erroneous conclusions, statistically as well as theoretically. The conclusion of the study puts into a wider perspective the discussion of differences and similarities of violence against women in Switzerland and the United States, and integrates recommendations as to the relevance and validity of international comparisons, whatever the'field they are conducted in. Résumé: Les comparaisons internationales dans le domaine de la victimisation, et plus particulièrement en ce qui concerne les violences envers les femmes, se caractérisent par des problèmes méthodologiques que les recherches antérieures n'ont pas systématiquement adressés, et dont la réponse ne semble pas connaître de consensus. Pour des raisons logistiques et financières évidentes, les études internationales sur les violences envers les femmes (c.-à-d. les études utilisant un même instrument dans différents pays) sont rares, aussi les chercheurs sont-ils contraints de se tourner vers des comparaisons secondaires. Beaucoup de recherches juxtaposent alors simplement leurs résultats à ceux de travaux antérieurs ou à des résultats obtenus dans d'autres contextes, afin d'offrir à leurs conclusions une perspective prétendument comparative. Si, le plus souvent, les auteurs indiquent les limites méthodologiques d'une comparaison directe, il est fréquent que ces dernières ne se traduisent pas par des contrôles méthodologiques concrets. Et pourtant, quantité de travaux ont mis en évidence l'influence des paramètres méthodologiques des enquêtes sur les résultats obtenus, érigeant des listes de recommandations pour une «meilleure pratique» de la recherche. Bien que, ces dernières décennies, les sondages sur les violences envers les femmes soient devenus de plus en plus similaires -tendant, vers une certaine uniformisation que l'on peut interpréter comme un consensus passif-, il n'en demeure pas moins que ces instruments possèdent des différences plus ou moins subtiles, mais toujours susceptibles d'influencer la validité d'une comparaison. Pourtant, seules quelques recherches ont directement travaillé sur la comparabilité des données sur les violences envers les femmes, ayant à coeur de contrôler les paramètres méthodologiques des études utilisées afin de garantir la validité de leurs comparaisons. L'objectif de ce travail est la comparaison des données de deux sondages nationaux sur les violences envers les femmes: le composant suisse de l'International Violence Against Women Survey [CHIVAWSj et le National Violence Against Women Survey [NVAWS) administré aux États-Unis. Le choix de ces deux études découle certes des affiliations de l'auteure, cependant il est loin d'être anodin. Le champ criminologique actuel confère, en effet, une place prépondérante à la littérature américaine et anglo-saxonne, contraignant ainsi les chercheurs d'autres pays à un exercice proche du grand écart pour interpréter leurs résultats à la lumière des travaux antérieurs ou développer des interventions efficaces dans leur propre contexte. Le fait de recourir à des hypothèses et des concepts développés dans un cadre spécifique pose inévitablement la question de leur applicabilité à un autre contexte, soit ici le contexte suisse, sinon du moins européen. Cette problématique revêt alors un intérêt qui dépasse la thématique spécifique des violences envers les femmes, ce qui ajoute à sa pertinence. Ce travail s'articule autour de trois axes. Premièrement, il met en évidence la manière dont les caractéristiques d'un sondage influencent les estimations qui en découlent. La comparabilité de la nature du CH-IVAWS et du NVAWS, de leur processus d'échantillonnage et des caractéristiques de leur administration est discutée. Les définitions utilisées, l'opérationnalisation des variables sur la base d'items comparables, le contrôle des périodes de référence, ainsi que la nature de la relation victime-auteur figurent également parmi les facteurs contrôlés. Ce travail établit ainsi la validité de contenu intra- et inter-études, offrant un processus systématique destiné à maximiser la comparabilité des données secondaires. Les implications de cette démarche sont illustrées avec la présentation successive d'opérationnalisations comparables et non-comparables des variables construites. Mesurant les violences envers les femmes en Suisse et aux États-Unis, ce travail compare la prévalence de plusieurs formes (menaces, violences physiques et violences sexuelles) et types de violence (violences partenaires et non-partenaires). 11 s'attache également à analyser les concepts de multivictimisation (c.-à-d. le fait de subir plusieurs formes de victimisation), victimisation répétée (c.-à.-d. le fait de subir plusieurs incidents de même forme) et revictimisation (c.-à-d. le lien entre la victimisation dans l'enfance et à l'âge adulte) dans une approche comparative - et comparable. Dans un troisième temps, cherchant à comprendre pourquoi la violence des partenaires apparaît plus fréquente aux États-Unis, tandis que les victimes de non-partenaires sont plus nombreuses en Suisse, et dans d'autres pays européens, différents facteurs associés à la victimisation sont évalués. Cette recherche participe d'une meilleure compréhension de la pertinence du contrôle des paramètres méthodologiques dans les comparaisons entre études puisqu'elle illustre, pas à pas, les contrôles imposés et leurs effets sur les données quantitatives, et surtout comment l'ignorance de ces paramètres peut conduire à des conclusions erronées, tant statistiquement que théoriquement. La conclusion replace, dans un contexte plus large, la discussion des différences et des similitudes observées quant à la prévalence des violences envers les femmes en Suisse et aux États-Unis, et intègre des recommandations quant à la pertinence et à la validité des comparaisons internationales, cela quel que soit le domaine considéré.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé Suite aux recentes avancées technologiques, les archives d'images digitales ont connu une croissance qualitative et quantitative sans précédent. Malgré les énormes possibilités qu'elles offrent, ces avancées posent de nouvelles questions quant au traitement des masses de données saisies. Cette question est à la base de cette Thèse: les problèmes de traitement d'information digitale à très haute résolution spatiale et/ou spectrale y sont considérés en recourant à des approches d'apprentissage statistique, les méthodes à noyau. Cette Thèse étudie des problèmes de classification d'images, c'est à dire de catégorisation de pixels en un nombre réduit de classes refletant les propriétés spectrales et contextuelles des objets qu'elles représentent. L'accent est mis sur l'efficience des algorithmes, ainsi que sur leur simplicité, de manière à augmenter leur potentiel d'implementation pour les utilisateurs. De plus, le défi de cette Thèse est de rester proche des problèmes concrets des utilisateurs d'images satellite sans pour autant perdre de vue l'intéret des méthodes proposées pour le milieu du machine learning dont elles sont issues. En ce sens, ce travail joue la carte de la transdisciplinarité en maintenant un lien fort entre les deux sciences dans tous les développements proposés. Quatre modèles sont proposés: le premier répond au problème de la haute dimensionalité et de la redondance des données par un modèle optimisant les performances en classification en s'adaptant aux particularités de l'image. Ceci est rendu possible par un système de ranking des variables (les bandes) qui est optimisé en même temps que le modèle de base: ce faisant, seules les variables importantes pour résoudre le problème sont utilisées par le classifieur. Le manque d'information étiquétée et l'incertitude quant à sa pertinence pour le problème sont à la source des deux modèles suivants, basés respectivement sur l'apprentissage actif et les méthodes semi-supervisées: le premier permet d'améliorer la qualité d'un ensemble d'entraînement par interaction directe entre l'utilisateur et la machine, alors que le deuxième utilise les pixels non étiquetés pour améliorer la description des données disponibles et la robustesse du modèle. Enfin, le dernier modèle proposé considère la question plus théorique de la structure entre les outputs: l'intègration de cette source d'information, jusqu'à présent jamais considérée en télédétection, ouvre des nouveaux défis de recherche. Advanced kernel methods for remote sensing image classification Devis Tuia Institut de Géomatique et d'Analyse du Risque September 2009 Abstract The technical developments in recent years have brought the quantity and quality of digital information to an unprecedented level, as enormous archives of satellite images are available to the users. However, even if these advances open more and more possibilities in the use of digital imagery, they also rise several problems of storage and treatment. The latter is considered in this Thesis: the processing of very high spatial and spectral resolution images is treated with approaches based on data-driven algorithms relying on kernel methods. In particular, the problem of image classification, i.e. the categorization of the image's pixels into a reduced number of classes reflecting spectral and contextual properties, is studied through the different models presented. The accent is put on algorithmic efficiency and the simplicity of the approaches proposed, to avoid too complex models that would not be used by users. The major challenge of the Thesis is to remain close to concrete remote sensing problems, without losing the methodological interest from the machine learning viewpoint: in this sense, this work aims at building a bridge between the machine learning and remote sensing communities and all the models proposed have been developed keeping in mind the need for such a synergy. Four models are proposed: first, an adaptive model learning the relevant image features has been proposed to solve the problem of high dimensionality and collinearity of the image features. This model provides automatically an accurate classifier and a ranking of the relevance of the single features. The scarcity and unreliability of labeled. information were the common root of the second and third models proposed: when confronted to such problems, the user can either construct the labeled set iteratively by direct interaction with the machine or use the unlabeled data to increase robustness and quality of the description of data. Both solutions have been explored resulting into two methodological contributions, based respectively on active learning and semisupervised learning. Finally, the more theoretical issue of structured outputs has been considered in the last model, which, by integrating outputs similarity into a model, opens new challenges and opportunities for remote sensing image processing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction Les interventions proposées pour promouvoir les directives anticipées (D.A.) n'ont que partiellement atteint leurs objectifs malgré les bénéfices anticipés. L'expérience internationale montre que, quand bien même l'institutionnalisation des D.A. est importante, les pratiques n'ont que peu évolué au cours des trois dernières décennies avec un taux de rédaction entre 15 à 30 %, variant modestement selon les publics, contextes et stratégies. Ce constat nécessite un changement de paradigme car la question des D.A. a trop fréquemment été conçue dans la perspective d'une allocation de ressources, avec une sélection de traitements à envisager en fonction de l'état de santé. Le déplacement souhaité implique de mettre en oeuvre une intervention de type Planification Anticipée du Projet Thérapeutique (P.A.P.T), centrée sur les objectifs et finalités des soins, selon les valeurs et priorités singulières à chaque patient. But L'étude pilote a permis dans un premier temps de développer et tester l'effet d'une intervention de P.A.P.T. menée par une infirmière auprès de résidants nouvellement admis en établissement médico-social (EMS) et de leurs proches significatifs. Dans un deuxième temps, la faisabilité et l'acceptabilité de cette intervention infirmière pour cette population spécifique a été évaluée. Méthode Au total 44 dyades (âge résidants M = 85,01 ans et proches M = 57,42) ont été recrutées pour participer entre mai 2011 et mai 2012 avec un suivi sur six mois dès l'admission du résidant. Un devis pré-post à groupe unique a évalué la qualité de la communication avec l'infirmière sur les soins à la fin de la vie (résidant/proche), les préférences et options de soins (résidant/proche) et la perception du fardeau chez le proche à l'entrée dans l'étude (semaine 5) et trois mois après l'intervention (semaine 25 après l'admission). L'intervention de P.A.P.T. sous forme de trois entretiens a été conduite par l'infirmière, durant le premier trimestre (semaines 6 à 13). Elle a pris connaissance de l'histoire de vie, des croyances et valeurs générales du résidant, clarifié les dix priorités jugées les plus importantes à la fin de sa vie sélectionnées et classées à l'aide d'un jeu de cartes ; elle a identifié, chez le proche, les représentations qu'il se faisait des préférences du résidant et discuté les options de soins au sein de la dyade. Après l'intervention, l'existence de traces dans les dossiers sur les priorités et souhaits de soins ainsi que la présence de D.A. rédigées ont été colligées. Des analyses descriptives et bivariées des données ont été effectuées. Résultats Aucune différence significative n'a été retrouvée après l'intervention par rapport à la qualité de la communication avec l'infirmière sur les soins à la fin de la vie chez le résidant (p = 0,32) et la similitude globale dans la dyade vis-à-vis des options de soins (p = 0,50). La concordance (degré d'accord mesuré avec l'indice K) entre résidant et proche par scénario vis-à-vis des options de soins s'est améliorée pour un des cinq scénarios et a diminué pour les quatre autres (p < 0,001). Pour le proche il a été constaté une amélioration de la qualité de la communication avec l'infirmière (p = 0,000) et de la perception du fardeau global (p - 0,007). Des traces de la P.A.P.T. ont été identifiées dans deux tiers des dossiers alors que des D.A. sont signalées pour 11 résidants. L'intervention s'est avérée faisable et a été bien acceptée par les dyades et les infirmières ayant conduit les entretiens. Conclusion L'intervention infirmière de P.A.P.T. en EMS parait efficace surtout auprès du proche. D'autres études interventionnelles à large échelle sont nécessaires pour confirmer ces résultats préliminaires chez la dyade.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction. - Les fractures ostéoporotiques entrainent une morbi-mortalité et des coûts économiques et humains grandissants. Des campagnes de dépistage se mettent en place associant questionnaire et DXA afin d'évaluer le risque fracturaire individuel et populationnel. La découverte fortuite d'une fracture vertébrale (VF), rendue possible par la réalisation d'une morphométrie vertébrale de profil (VFA par DXA) de D4 à L4, peut changer le diagnostic et le pronostic. Néanmoins sa reproductibilité de lecture est peu élevée, surtout sur le rachis dorsal et les fractures de grade 1 [1]. L'IOF/ISCD a proposé un guide pour en améliorer la lecture. Nous avons mesuré la reproductibilité de lecture des VFA avant et après application de ce guide sur une cohorte Suisse de dépistage de l'ostéoporose. Patients et méthodes. - 360 VFA (Hologic Delphi) issus aléatoirement de la cohorte OstéoLaus (femmes > 50 ans) ont été lus par 2 lecteurs indépendants avant et après application du guide de lecture. Il comporte des règles de condition de lecture (luminosité, contraste sur l'écran) et des étapes de lecture systématisées. La reproductibilité a été évaluée par le test de kappa sur : la lisibilité de chaque vertèbre, l'existence ou non d'une VF, son grade (1, 2 ou 3 selon Genant). Nous avons utilisé le Kappa de Cohen avec une technique de bootstrap pour les comparaisons avant/après sur des données corrélées. Résultats. - L'accord entre les lecteurs est élevé et s'améliore après application du guide de lecture (tableau). Le kappa de Cohen est modéré à bon selon Landis et Koch (0,4-0,7). La reproductibilité sur les grades est améliorée en regroupant les grades 0/1 et 2/3, mais pas par le guide de lecture. Conclusion. - L'utilisation du guide de lecture des VFA IOF/ISCD améliore la reproductibilité sur la lisibilité des vertèbres, la détection des VF, mais pas la classification du grade selon Genant. Ceci est principalement expliqué par le fait que le kappa de Cohen donne beaucoup d'importance à la distribution des données, qui devient asymétrique lorsque l'événement est rare. Le kappa uniforme [2] serait mieux adapté dans cette situation. Une réanalyse est en cours.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé : La délinquance des étrangers se situe depuis quelques années au milieu de beaucoup de débats politiques. En même temps, la récidive constitue l'un des sujets d'étude classiques de la criminologie. Cette recherche combine ces deux phénomènes en s'intéressant aux causes de la délinquance et de l'éventuelle récidive d'un échantillon d'étrangers incarcérés en Suisse. Le cadre théorique repose sur une revue approfondie de la littérature scientifique sur la délinquance des étrangers ainsi que sur les facteurs influençant la récidive. Ces revues ont conduit à l'élaboration d'une série d'hypothèses qui ont été testées dans la partie empirique du travail. Cette dernière comprend l'étude des 500 dossiers des étrangers libérés des Etablissements pénitentiaires de la Plaine de l'Orbe (EPO, canton de Vaud, Suisse) entre 1995 et 1999, ainsi que le suivi de ces personnes, avec l'aide des données fournies par l'Office fédéral de la statistique, afin d'établir si elles avaient récidivé durant les cinq années postérieures à leur libération. Elle comprend également l'analyse de 125 entretiens conduits auprès des détenus des EPO entre 2005 et 2006 dont le but était d'établir, entre autres, leur perception subjective sur les causes de la délinquance et de la récidive. Les résultats indiquent un taux de récidive d'environ 30%. En outre, ils corroborent l'influence sur la récidive des facteurs identifiés par les recherches précédentes bien que, vu les particularités de l'échantillon étudié, certains de ces facteurs -tel que l'âge à la première condamnation ou l'âge à la sortie de prison-, présentent des divergences. En outre, l'analyse des entretiens a permis l'élaboration d'une nouvelle classification des causes de la récidive. Finalement, la recherche permet une connaissance plus approfondie des causes de l'implication dans la délinquance de la population de référence. The delinquency of the foreigners: criminality, recidivism and the factors that influence to the return to prison Abstract : The foreigners' delinquency is today in the middle of political debates. Moreover, recidivism is one of the classical subjects studied in criminology. The present research combines these two phenomena by studying the causes of foreigners' delinquency and recidivism. With the purpose of doing this research, a theoretical framework on the criminality of foreigners has been established through an extensive review of research literature on this subject as well as on the factors influencing recidivism. These reviews have allowed the establishment of a series of hypotheses that have been tested in the empirical part of the study. This empirical research includes the study of 500 cases of all foreigners released from the Penitentiary Establishment of the Plaine de l'Orbe (EPO, in the Vaud region) between 1995 and 1999. This population was then followed-up by means of data provided by the Swiss Federal Office of Statistics in order to know whether they had recidivated during the five years following their release. The empirical study also includes the analysis of interviews conducted with 125 inmates of EPO between 2005 and 2006 to determine what are, in the opinion of the inmates interviewed, the causes of recidivism and the causes of crime. The results show a recidivism rate of approximately 30%. Furthermore, the factors which, according to research analyzed, influence recidivism, have also been related to the recidivism of our sample. However, due to the fact that the sample studied consists of foreigners, some factors, such as age of the first conviction or age of release of prison, show some differences with respect to the literature. Finally, the information obtained from the interviews has allowed the establishment of a new classification on the causes of recidivism, and to get a deeper knowledge of the causes of crime involvement of the population studied.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le diabète de type 2 est une maladie fréquente et en augmentation dans le monde entier. Malheureusement, elle est souvent diagnostiquée à un stade ou des complications sont déjà apparues. Depuis quelques années, des scores ont été développés pour identifier les sujets à risque de développer cette maladie. L'utilisation d'un tel score par le praticien pourrait amener ces patients à des mesures préventives, telles que le changement d'hygiène de vie, ou la prescription d'un traitement médicamenteux. Le but de notre étude est de comparer et de valider différents scores de risques de diabète de type 2 et de déterminer leur capacité à prédire la survenue de cette maladie dans la population de la cohorte CoLaus. Les premiers résultats, en étude transversale, ont tout d'abord montré de grandes différences quant à la population à risque d'un score à l'autre. En effet, le nombre de personnes à traiter varie considérablement selon la méthode utilisée. Ces différents scores ont donc nécessité une validation prospective. Ces résultats ont fait l'objet d'une publication (Schmid et col, Diabetes Care. 2011 Aug;34(8):1863-8). Au moyen des données du suivi à 5 ans, il est sorti qu'un score de risque utilisant des variables biologiques et cliniques, ainsi qu'un score utilisant des variables uniquement cliniques, obtenaient de très bon résultats quant à la prédiction du diabète de type 2. En effet, un des scores testés donne une valeur prédictive positive d'environ 20% à 5 ans, ce qui signifie qu'un patient « détecté » sur 5 pourrait bénéficier d'une intervention précoce. Toutefois, ces résultats concernent la population lausannoise et ne sont donc pas forcément applicables à l'ensemble de la population suisse. De plus, de plus amples études sont nécessaires évaluer l'efficacité d'un tel score dans la prévention du diabète en Suisse. Ces résultats ont fait l'objet d'une seconde publication (Schmid et col, Arch Intern Med. 2012 Jan 23;172(2):188-9). Dans un troisième volet de l'étude, l'impact de marqueurs génétiques a été évalué dans un sous- groupe de la population CoLaus. Les résultats n'ont toutefois montré qu'une très faible amélioration de la prédiction du risque en utilisant ces marqueurs. Ceci devrait nous encourager à intensifier les efforts de prévention sur le style de vie pour toute la population, plutôt qu'une approche ciblée sur les personnes génétiquement prédisposées. Ces résultats ont fait l'objet d'une troisième publication (Schmid et col, J Clin Endocrinol Metab. 2012 Apr 24. [Epub ahead of print]). La même démarche méthodologique a été utilisée pour évaluer l'importance pronostique de plusieurs marqueurs inflammatoires (interleukines 1 et 6, Τ Ν F-, protéine C-réactive) hépatiques (GT) ou adipocytaires (leptine et adiponectine) dans la survenue du diabète. Ces résultats sont actuellement soumis au Journal of Clinical Endocrinology and Metabolism).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'Etude Suisse de Cohorte VIH a été mise en place en 1988. Plusieurs centres participent à cette étude : les hôpitaux universitaires de Zurich, Berne, Bâle, Genève et Lausanne, les hôpitaux cantonaux de Saint-Gall et du Tessin, 14 hôpitaux régionaux, ainsi que 35 praticiens privés. Cette étude a collecté des données de plus de 16500 personnes infectées par le VIH, de 1981 jusqu'aujourd'hui.¦Actuellement, plus de 7000 patients sont suivis tous les 6 mois. Parmi les analyses demandées au cours de ce suivi figure un test annuel de dépistage de la syphilis. Ce dépistage consiste en un test TPHA (Treponema Pallidum Haemagglutination Assay) où l'on observe l'hémagglutination de globules rouges qui ont absorbé des antigènes du tréponème, ou ses équivalents LIAISON et ARCHITECT.¦Si ce test TPHA est positif, un test VDRL, qui détecte des anticorps dirigés contre la cardiolipine, est effectué.¦Pour des raisons économiques, ce dépistage annuel systématique de la syphilis est remis en question par l'un des médecins praticiens participant à l'Etude Suisse de Cohorte VIH, estimant que ce dépistage ne devrait être demandé chaque année que chez les personnes étant identifiées comme à risque.¦Notre objectif est d'évaluer la nécessité de faire un dépistage de la syphilis annuel chez tous les patients de la Cohorte en comparaison à un dépistage annuel seulement chez le groupe jugé à risque.¦Pour pouvoir répondre à cette question, nous allons dans un premier temps faire une analyse descriptive : nous allons analyser quels patients ont développé une séroconversion en fonction de l'âge, du sexe et de la voie d'infection du VIH la plus probable (voie homosexuelle, hétérosexuelle ou consommation de drogues).¦Une conversion du test TPHA de négatif à positif n'est pas toujours synonyme d'infection à treponema pallidum. Une infection diagnostiquée au stade primaire et traitée efficacement ne provoque pas nécessairement des anticorps. A l'inverse, le test TPHA peut être faussement positif dû à une réaction croisée (p.ex. framboesie) ou non-spécifique (maladies auto-immunes). Pour l'analyse descriptive nous devons toutefois nous limiter à la séroconversion.¦Pour pouvoir faire cette analyse nous devons extraire certaines données, et procéder à un « nettoyage » de celles-ci : en effet, nous ne pouvons garder que les données des 700 patients ayant au moins un test initial de TPHA négatif, suivi d'un test TPHA positif avec un VDRL positif.¦Puis nous allons faire une étude « cas-témoins » pour comparer l'anamnèse sexuelle des patients présentant une séroconversion avec celle des patients qui n'ont pas développé d'anticorps, afin d'évaluer si nous pouvons définir, d'après l'anamnèse sexuelle, un groupe de sujets plus à risque de développer une syphilis. Cas et témoins seront stratifiés selon l'âge, le sexe et le mode d'infection du VIH.¦Comme troisième étape nous allons définir, pour un sous-échantillon, si le résultat positif du dépistage a permis de diagnostiquer la syphilis ou si le diagnostique avait déjà été établi grâce à la présence de symptômes.¦Etant donné que ce dépistage systématique est remis en cause pour des raisons financières, nous allons finalement, au cours de cette étude, estimer le coût des différentes options.¦Notre hypothèse, tirée d'après les déclarations de cas de syphilis de l'OFSP (Office Fédéral de la Santé Publique) et l'expérience des cliniciens, est que l'on trouve en effet que les homosexuels de moins de 50 ans représentent un grand pourcentage des personnes infectées par la syphilis. Cependant, nous ne savons pas si la fréquence d'infection des autres groupes de patients est suffisamment élevée pour justifier ce dépistage systématique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le présent rapport rend compte d'une partie du travail déjà réalisé sur l'inventaire des données disponibles dans la littérature scientifique sur l'exposition des travailleurs agricoles aux pesticides en France. La possibilité de tirer parti de la littérature produite sur d'autres pays que la France est également explorée dans deux études de cas (réentrée en arboriculture et insecticides en élevages ovins). Les résultats seront exposés par ailleurs car le recueil et l'analyse de données produites par ces études sur les situations d'exposition des personnes travaillant en milieu agricole dans des pays étrangers posent des problèmes méthodologiques spécifiques si on veut pouvoir en tirer des enseignements pour la France. En matière de revue de la littérature scientifique, l'idéal de l'exhaustivité est généralement impossible à atteindre pour des raisons qui tiennent à la croissance exponentielle du nombre de publications scientifiques, à la pluralité des langues de publication, à la fragmentation et à l'accessibilité limitée des bases documentaires ... Nous pensons avoir recueilli tous les documents accessibles, mais peut-être certains nous ont-il échappé. C'est pourquoi le présent rapport est à la fois un exposé de résultats et un appel à contributions complémentaires. Il explicite les détails de la démarche adoptée (critères de sélection des articles, traçabilité des étapes de l'analyse ...) sous une forme qui permet à chacun d'avoir prise sur les résultats mais aussi de proposer des compléments au recensement réalisé. Il vise à être la première brique d'une base de connaissances partagée qui permette de capitaliser les données disponibles et qui puisse être mise à jour régulièrement.