884 resultados para Geneva


Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIVE: Intravenous methadone is associated with increased risk of morbidity and mortality. A previous report from a methadone center in Fribourg, Switzerland, found a high prevalence (43%) of patients who injected oral methadone. We therefore wished to assess the prevalence of methadone injection among patients in oral methadone programs in 3 other Swiss cities--Lausanne, Geneva, and La Chaux-de-Fonds. METHOD: Subjects were randomly selected and interviewed by assistant psychologists who were not on the staff of the study centers. Participation was voluntary and anonymous. RESULTS: 164 patients participated in the study (n = 58 in Lausanne, 52 in Geneva, and 54 in La Chaux-de-Fonds). The prevalence of methadone injection was low (5%) and did not differ significantly between the cities. DISCUSSION: Less liberal policies cannot explain the lower prevalence of methadone injection in these three centers than in Fribourg. The high prevalence of methadone injection there is probably related to its separate methadone injection program: patients in oral methadone programs may be more likely to injection methadone when other patients authorized to do so. IN CONCLUSION: Although the 5% prevalence of methadone injection found in the 3 cities surveyed is low, it is not negligible. These results suggest that information on the risks associated with injection of methadone syrup should be provided to all methadone maintenance. This information is especially necessary when maintenance therapy is provided in the same center, or city as injectable methadone maintenance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The study examined how religious beliefs and practices impact upon medication and illness representations in chronic schizophrenia. One hundred three stabilized patients were included in Geneva's outpatient public psychiatric facility in Switzerland. Interviews were conducted to investigate spiritual and religious beliefs and religious practices and religious coping. Medication adherence was assessed through questions to patients and to their psychiatrists and by a systematic blood drug monitoring. Thirty-two percent of patients were partially or totally nonadherent to oral medication. Fifty-eight percent of patients were Christians, 2% Jewish, 3% Muslim, 4% Buddhist, 14% belonged to various minority or syncretic religious movements, and 19% had no religious affiliation. Two thirds of the total sample considered spirituality as very important or even essential in everyday life. Fifty-seven percent of patients had a representation of their illness directly influenced by their spiritual beliefs (positively in 31% and negatively in 26%). Religious representations of illness were prominent in nonadherent patients. Thirty-one percent of nonadherent patients and 27% of partially adherent patients underlined an incompatibility or contradiction between their religion and taking medication, versus 8% of adherent patients. Religion and spirituality contribute to shaping representations of disease and attitudes toward medical treatment in patients with schizophrenia. This dimension should be on the agenda of psychiatrists working with patients with schizophrenia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In 1891 Théodore Flournoy (1854-1920) became the first Professor of Psychology to be appointed at the University of Geneva, and his teaching regularly included references to religion. His successor, Georges Berguer, who taught psychology of religion, began as privat-docent in 1910 and received a full professorship in Religious Psychology and the History of Religion in 1928. French-speaking Switzerland is one of the rare places in the world where psychology of religion has been taught continuously since the very beginning of the 20th century. The aim of this article is to shed light on this tradition and especially on Georges Berguer (retired in 1944) and Edmond Rochedieu (retired in 1965) who succeeded Flournoy. This historical enterprise concludes with some reflections on the role of the psychology of religion at the intersection of psychology and the study of religions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This epidemiologic investigation in three Swiss regions (Geneva, St. Gall-Appenzell, Vaud) included 5,193 women diagnosed as having a first primary breast cancer. The patients were followed up for ten years (the observation totalled 24,994 women-years). Overall, these results confirmed that the relative risk of a second breast cancer was greatly increased during the first year following the primary diagnosis, but this was largely due to simultaneously discovered contralateral tumours. Beyond the first year of follow-up, the relative risk of a second tumour was lower but still significantly greater than unity. No significant diminution of the excess risk was observed in the first 10 years of follow-up. Relative risk of a second breast cancer was generally higher before age 50, independently of the latency. The relative risk of a second breast cancer differed significantly from one region to another, possibly due to specific techniques of registration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Smuggling dissolved drugs, especially cocaine, in bottled liquids is a problem at borders nowadays. Common fluoroscopy of packages at the border cannot detect contaminated liquids. To find a dissolved drug, an immunological test using a drug-test panel has to be performed. This means that a control sample of the cargo must be opened to perform the test. As it is not possible to open all boxes, and as smugglers hide the drugcontaining boxes between regularly filled boxes, contaminated cargos can be overlooked. Investigators sometimes cannot perform the drug-test panel because they try not to arouse the smugglers' suspicion in order to follow the cargo and to find the recipient. Aims: The objective of our studies was to define non-invasive examination techniques to investigate cargos that are suspicions to contain dissolved cocaine without leaving traces on the samples. We examined vessels containing cocaine by radiological cross-section techniques such as multidetector computed tomography (MDCT) and magnetic resonance spectroscopy (MRS). Methods: In a previous study, we examined bottles of wine containing dissolved cocaine in different quantities using an MDCT unit. To distinguish between bottles containing red wine and those where cocaine was solved in the wine, cross sectional 2D-images have been reconstructed and the absorption of X-rays was quantified by measuring the mean density of the liquid inside the bottles. In our new study, we investigated phantoms containing cocaine dissolved in water with or without ethanol as well as cocaine dissolved in different sorts of commercially available wine by the use of a clinical magnetic resonance unit (3 tesla). To find out if dissolved cocaine could be detected, magnetic resonance spectroscopy (1H MRS) was performed. Results: By using a MDCT-unit and measuring the mean attenuation of X-rays, it is possible to distinguish weather substances are dissolved in a liquid or not, if a comparative liquid without any solutions is available. The increase of the mean density indicates the presence of dissolved substances without the possibility to identify the substance. By using magnetic resonance spectroscopy, dissolved cocaine can be clearly identified because it produces distinctive resonances in the spectrum. In contrast to MDCT, this technique shows a high sensitivity (detection of 1 mM cocaine in wine). Conclusions: Cross-sectional imaging techniques such as MDCT and MRS appropriated to examine cargos that are suspicious to contain dissolved cocaine. They allow to perform non-invasive investigations without leaving any trace on the cargo. While an MDCT scan can detect dissolved substances in liquids, identification of cocaine can be obtained by MR-spectroscopy. Acknowledgment: This work was supported by the Centre d'Imagerie BioMédicale (CIBM) of the University of Lausanne (UNIL), the Swiss Federal Institute of Technology Lausanne (EPFL), the University of Geneva (UniGe), the Centre Hospitalier Universitaire Vaudois (CHUV), the Hôpitaux Universitaire de Genève (HUG) and the Leenaards and the Jeantet Foundations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present research deals with an application of artificial neural networks for multitask learning from spatial environmental data. The real case study (sediments contamination of Geneva Lake) consists of 8 pollutants. There are different relationships between these variables, from linear correlations to strong nonlinear dependencies. The main idea is to construct a subsets of pollutants which can be efficiently modeled together within the multitask framework. The proposed two-step approach is based on: 1) the criterion of nonlinear predictability of each variable ?k? by analyzing all possible models composed from the rest of the variables by using a General Regression Neural Network (GRNN) as a model; 2) a multitask learning of the best model using multilayer perceptron and spatial predictions. The results of the study are analyzed using both machine learning and geostatistical tools.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seeing and analyzing crowd control : considerations on the study of festive gatherings through the use of audiovisual material. The goal of our research project was to analyze the mechanisms of crowd control on the occasion of the 2008 European Football Championship held in Geneva. In this article, we describe the necessary ambiguity of these occasions for public authorities. On the one hand, they must guarantee that the occasion is sufficiently secure to avoid infractions or incivilities by fans ; on the other hand, they must create the conditions for a festive event of which exuberance is a central part. Police forces aim not to eliminate excesses but to contain them, since some degree of excess is indispensable to ensure the accomplishment of the event. How does the police deal with this complicated situation ? Where is the limit between preventive and repressive measures ? How do they implement management of the public order in the setting of a sports event ? We aim to render visible the practical conditions of the event by making use of video sequences recorded during a match in Geneva. The empirical materials collected will be used to describe three different situations that highlight how quickly fan action can radically switch natures and how complex it is for the police to face a jubilant crowd. In such a context, we show that assuring the smooth progress of the event requires a redefinition of the role of the police, whose interventions must tread a fine line between permissiveness and prohibition.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le suicide et les tentatives de suicide des adolescents sont des enjeux de santé publique majeurs. En s'appuyant sur le modèle de soins développé à Genève, nous décrivons les différents temps nécessaires pour accueillir, évaluer et orienter un adolescent pris dans un mouvement suicidaire. Un temps d'accueil et d'évaluation pédiatrique, puis un temps d'évaluation psychiatrique et enfin un temps d'orientation à l'issue duquel est proposée une prise en charge spécifique. En fonction des caractéristiques cliniques du jeune (impulsivité, symptomatologie anxio-dépressive...), de sa capacité d'engagement dans les soins et de la qualité des liens du réseau, la prise en charge sera soit ambulatoire intensive, soit hospitalière. Suicide and suicide attempts of adolescents are major public health issues. Based on a model of care developed in Geneva, we describe the conditions necessary to evaluate and guide a teenager trapped in a suicidal behavior. First of all, there must be some time dedicated to pediatric assessement followed by a psychiatric evaluation and finally, the adolescent can be oriented toward specific treatment. Depending on the clinical characteristics of the young adolescent and according to his willingness to engage himself in intensive follow-up (impulsivity, anxious?--depressive symptomatology...), cares will be given either as outpatient with close monitoring or inpatient.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Due to the existence of free software and pedagogical guides, the use of data envelopment analysis (DEA) has been further democratized in recent years. Nowadays, it is quite usual for practitioners and decision makers with no or little knowledge in operational research to run themselves their own efficiency analysis. Within DEA, several alternative models allow for an environment adjustment. Five alternative models, each of them easily accessible to and achievable by practitioners and decision makers, are performed using the empirical case of the 90 primary schools of the State of Geneva, Switzerland. As the State of Geneva practices an upstream positive discrimination policy towards schools, this empirical case is particularly appropriate for an environment adjustment. The alternative of the majority of DEA models deliver divergent results. It is a matter of concern for applied researchers and a matter of confusion for practitioners and decision makers. From a political standpoint, these diverging results could lead to potentially opposite decisions. Grâce à l'existence de logiciels en libre accès et de guides pédagogiques, la méthode data envelopment analysis (DEA) s'est démocratisée ces dernières années. Aujourd'hui, il n'est pas rare que les décideurs avec peu ou pas de connaissances en recherche opérationnelle réalisent eux-mêmes leur propre analyse d'efficience. A l'intérieur de la méthode DEA, plusieurs modèles permettent de tenir compte des conditions plus ou moins favorables de l'environnement. Cinq de ces modèles, facilement accessibles et applicables par les décideurs, sont utilisés pour mesurer l'efficience des 90 écoles primaires du canton de Genève, Suisse. Le canton de Genève pratiquant une politique de discrimination positive envers les écoles défavorisées, ce cas pratique est particulièrement adapté pour un ajustement à l'environnement. La majorité des modèles DEA génèrent des résultats divergents. Ce constat est préoccupant pour les chercheurs appliqués et perturbant pour les décideurs. D'un point de vue politique, ces résultats divergents conduisent à des prises de décision différentes selon le modèle sur lequel elles sont fondées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

BACKGROUND: Biological agents (BA) have recently completed the treatment options in auto-inflammatory diseases (AID) in children with the aim to improve the outcome. TNF-α blocking agents have been the first BA successfully used in children. However, other biological agents targeting cytokines including IL-1 and IL-6 have been shown to be effective (anti-IL-1/6), especially in AID like systemiconset juvenile arthritis (SoJIA) or cryopyrine-associated periodic syndrome (CAPS). In Switzerland, Etanercept has been approved for the treatment of JIA since 2000 and Canakinumab for the treatment of paediatric CAPS since 2009.OBJECTIVES: Evaluation of the use of biological agents in AID in Western Switzerland.METHODS: We selected all patients with AID seen in the Réseau Romand de Rhumatologie Pédiatrique (Lausanne, Geneva, Aigle, Sion, and Neuchâtel) who were treated with the following BA: anti-TNF-α (Etanercept, Infliximab, Adalimumab) and Abatacept, and anti-IL-1/6 (Anakinra, Canakinumab, Tocilizumab). We looked at minor and major adverse events and the activity of the disease before and after treatment with BA and with special regards on anti-IL-1/6.RESULTS: Among 921 children and adolescents followed between 2004 and 2010, we selected 85 patients with AID (PFAPA: 40, FMF: 6, HyperIgD: 1, CAPS: 3, SoJIA: 34). Only patients with CAPS and SoJIA were treated with BA. They had a mean age of 9 years (3-22) and F: M ratio of 1.6:1. 7 patients were treated with one BA, 6 patients with 2 different BAs and 3 with 3 BAs. 3 patients with CAPS were treated with anti-IL-1 and responded very well. 13 SoJIA patients were treated with BA (anti-TNF-α: 8, Abatacept: 1, anti-IL-1/6: 8). 4 patients treated by anti-TNF-α were switched to anti-IL-1/6 because of lack of response to treatment (cf Table 1). We did not have any serious adverse events and no serious infections.CONCLUSIONS: Patients with SoJIA and CAPS clearly benefit from treatment with BA. General tolerance was good. In the CAPS group the response to IL-1 was excellent. In SoJIA, 3/4 patients, switched from anti-TNF-α to anti-IL-1/6 for lack of therapeutic response, did not respond well to the second medication. These patientsseem to represent a population relatively resistant to treatment with BA. Due to the low number of patients in our cohort, the response to BA in SoJIA patients non-responder to anti- TNF-α agents should be further studied.