284 resultados para Réponse myogénique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mononuclear phagocytes are essential for the innate response to pathogens and for the repair of injured tissue. The cells - which can be broadly divided into circulating monocytes and tissue-resident macrophages and dendritic cells - are selectively equipped to protect the host by mediating pleiotropic and tissue-specific functions. The properties of some mononuclear phagocytes, however, also contribute to the development and the progression of inflammatory diseases. Consequently, current research investigates mononuclear phagocytes into greater detail with the aim to clarify their contributions to pathophysiologic inflammation. Recent studies indicate that circulating monocytes can be divided into distinct populations, which differ in their tissue tropism and functional commitment. Also, tissue macrophages and dendritic cells have been found to adopt context-dependent phenotypes, which can range from "pro-" to "anti-" inflammatory. These findings have markedly contributed to our understanding of the functional heterogeneity of mononuclear phagocyte populations. Yet, in many cases, the factors that control the quantity and/or quality of phagocyte responses in vivo remain largely unknown. The goal of this thesis was to identify cell endogenous and cell exogenous factors that dictate the fate of mononuclear phagocyte populations. To this end we made use of the recent identification of phenotypic markers, which permit to track mononuclear cell types and their lineage precursors. A main approach consisted to define candidate regulatory factors of certain types of mononuclear phagocytes and then to manipulate the expression of these factors in mice so as to address their functions and causal contributions on mononuclear phagocyte lineages in vivo. Human patient material was further used to validate findings. First, we investigated a microRNA and a transcription factor as candidate cell endogenous co- regulators of monocyte subset responses. Second, we studied a tumor-derived hormone as a candidate exogenous factor that amplifies the production of a population of mononuclear phagocytes with tumor-promoting functions. The endogenous and exogenous factors identified in this research appear to act as effective regulators of mononuclear phagocyte responses in vivo and thus may be exploited in future therapeutic approaches to regulate disease-associated inflammation. - Les phagocytes mononucléaires sont essentiels pour la réponse innée aux pathogènes et pour la réparation des tissus lésés. Ces cellules - qui peuvent être largement divisées en deux groupes, les monocytes circulant dans le sang et les macrophages et cellules dendritiques résidant dans les tissus - sont capables de protéger l'hôte en exerçant des fonctions pléiotropiques. Cependant, les propriétés de certains phagocytes mononucléaires contribuent également au développement et à la progression des maladies inflammatoires. Par conséquent, la recherche actuelle étudie les phagocytes mononucléaires plus en détail afin de clarifier leurs contributions à l'inflammation pathophysiologique. Des études récentes indiquent que les monocytes circulants peuvent être divisés en populations distinctes, qui diffèrent dans leur tropisme tissulaire et dans leurs fonctions biologiques. En outre, les macrophages et les cellules dendritiques peuvent adopter des phénotypes dépendants de l'environnement dans lequel ils se trouvent; ces phénotypes peuvent aller du type "pro-" au type "anti-" inflammatoire. Ces récentes découvertes ont contribué à notre compréhension sur l'hétérogénéité fonctionnelle des phagocytes mononucléaires. Pourtant, dans de nombreux cas, les facteurs qui contrôlent la quantité et/ou la qualité des réponses produites par ces cellules restent encore largement inconnus. L'objectif de cette thèse a consisté à identifier de nouveaux facteurs (endogènes ou exogènes) qui contrôlent les phagocytes mononucléaires. Dans ce but, nous avons fait usage de l'identification récente de marqueurs qui permettent d'identifier différents types de phagocytes mononucléaires ainsi que des cellules (souches) dont ils sont issus. Notre approche a consisté à définir des facteurs candidats qui pourraient contrôler certains phagocytes mononucléaires, puis à manipuler l'expression de ces facteurs chez la souris de manière à tester leurs fonctions et leur contributions in vivo. Nous avons également utilisé des échantillons biologiques de patients pour vérifier nos résultats chez l'homme. Tout d'abord, nous avons étudié un microARN et un facteur de transcription pour déterminer si ces deux facteurs opèrent en tant que co-régulateurs d'un certain type de monocytes. Deuxièmement, nous avons considéré une hormone produite par certaines tumeurs afin d'examiner son rôle dans la production d'une population de macrophages qui favorisent la progression des tumeurs. Les facteurs endogènes et exogènes identifiés dans cette recherche semblent agir comme régulateurs dominants de réponses produites par certains phagocytes mononucléaires et pourraient donc être exploités dans de futures approches thérapeutiques afin de contrôler les réponses immunitaires inflammatoires associées a certaines maladies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces dernières années, de nombreuses recherches ont mis en évidence les effets toxiques des micropolluants organiques pour les espèces de nos lacs et rivières. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, alors que les organismes sont exposés tous les jours à des milliers de substances en mélange. Or les effets de ces cocktails ne sont pas négligeables. Cette thèse de doctorat s'est ainsi intéressée aux modèles permettant de prédire le risque environnemental de ces cocktails pour le milieu aquatique. Le principal objectif a été d'évaluer le risque écologique des mélanges de substances chimiques mesurées dans le Léman, mais aussi d'apporter un regard critique sur les méthodologies utilisées afin de proposer certaines adaptations pour une meilleure estimation du risque. Dans la première partie de ce travail, le risque des mélanges de pesticides et médicaments pour le Rhône et pour le Léman a été établi en utilisant des approches envisagées notamment dans la législation européenne. Il s'agit d'approches de « screening », c'est-à-dire permettant une évaluation générale du risque des mélanges. Une telle approche permet de mettre en évidence les substances les plus problématiques, c'est-à-dire contribuant le plus à la toxicité du mélange. Dans notre cas, il s'agit essentiellement de 4 pesticides. L'étude met également en évidence que toutes les substances, même en trace infime, contribuent à l'effet du mélange. Cette constatation a des implications en terme de gestion de l'environnement. En effet, ceci implique qu'il faut réduire toutes les sources de polluants, et pas seulement les plus problématiques. Mais l'approche proposée présente également un biais important au niveau conceptuel, ce qui rend son utilisation discutable, en dehors d'un screening, et nécessiterait une adaptation au niveau des facteurs de sécurité employés. Dans une deuxième partie, l'étude s'est portée sur l'utilisation des modèles de mélanges dans le calcul de risque environnemental. En effet, les modèles de mélanges ont été développés et validés espèce par espèce, et non pour une évaluation sur l'écosystème en entier. Leur utilisation devrait donc passer par un calcul par espèce, ce qui est rarement fait dû au manque de données écotoxicologiques à disposition. Le but a été donc de comparer, avec des valeurs générées aléatoirement, le calcul de risque effectué selon une méthode rigoureuse, espèce par espèce, avec celui effectué classiquement où les modèles sont appliqués sur l'ensemble de la communauté sans tenir compte des variations inter-espèces. Les résultats sont dans la majorité des cas similaires, ce qui valide l'approche utilisée traditionnellement. En revanche, ce travail a permis de déterminer certains cas où l'application classique peut conduire à une sous- ou sur-estimation du risque. Enfin, une dernière partie de cette thèse s'est intéressée à l'influence que les cocktails de micropolluants ont pu avoir sur les communautés in situ. Pour ce faire, une approche en deux temps a été adoptée. Tout d'abord la toxicité de quatorze herbicides détectés dans le Léman a été déterminée. Sur la période étudiée, de 2004 à 2009, cette toxicité due aux herbicides a diminué, passant de 4% d'espèces affectées à moins de 1%. Ensuite, la question était de savoir si cette diminution de toxicité avait un impact sur le développement de certaines espèces au sein de la communauté des algues. Pour ce faire, l'utilisation statistique a permis d'isoler d'autres facteurs pouvant avoir une influence sur la flore, comme la température de l'eau ou la présence de phosphates, et ainsi de constater quelles espèces se sont révélées avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps. Fait intéressant, une partie d'entre-elles avait déjà montré des comportements similaires dans des études en mésocosmes. En conclusion, ce travail montre qu'il existe des modèles robustes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques, et qu'ils peuvent être utilisés pour expliquer le rôle des substances dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application. - Depuis plusieurs années, les risques que posent les micropolluants organiques pour le milieu aquatique préoccupent grandement les scientifiques ainsi que notre société. En effet, de nombreuses recherches ont mis en évidence les effets toxiques que peuvent avoir ces substances chimiques sur les espèces de nos lacs et rivières, quand elles se retrouvent exposées à des concentrations aiguës ou chroniques. Cependant, la plupart de ces études se sont focalisées sur la toxicité des substances individuelles, c'est à dire considérées séparément. Actuellement, il en est de même dans les procédures de régulation européennes, concernant la partie évaluation du risque pour l'environnement d'une substance. Or, les organismes sont exposés tous les jours à des milliers de substances en mélange, et les effets de ces "cocktails" ne sont pas négligeables. L'évaluation du risque écologique que pose ces mélanges de substances doit donc être abordé par de la manière la plus appropriée et la plus fiable possible. Dans la première partie de cette thèse, nous nous sommes intéressés aux méthodes actuellement envisagées à être intégrées dans les législations européennes pour l'évaluation du risque des mélanges pour le milieu aquatique. Ces méthodes sont basées sur le modèle d'addition des concentrations, avec l'utilisation des valeurs de concentrations des substances estimées sans effet dans le milieu (PNEC), ou à partir des valeurs des concentrations d'effet (CE50) sur certaines espèces d'un niveau trophique avec la prise en compte de facteurs de sécurité. Nous avons appliqué ces méthodes à deux cas spécifiques, le lac Léman et le Rhône situés en Suisse, et discuté les résultats de ces applications. Ces premières étapes d'évaluation ont montré que le risque des mélanges pour ces cas d'étude atteint rapidement une valeur au dessus d'un seuil critique. Cette valeur atteinte est généralement due à deux ou trois substances principales. Les procédures proposées permettent donc d'identifier les substances les plus problématiques pour lesquelles des mesures de gestion, telles que la réduction de leur entrée dans le milieu aquatique, devraient être envisagées. Cependant, nous avons également constaté que le niveau de risque associé à ces mélanges de substances n'est pas négligeable, même sans tenir compte de ces substances principales. En effet, l'accumulation des substances, même en traces infimes, atteint un seuil critique, ce qui devient plus difficile en terme de gestion du risque. En outre, nous avons souligné un manque de fiabilité dans ces procédures, qui peuvent conduire à des résultats contradictoires en terme de risque. Ceci est lié à l'incompatibilité des facteurs de sécurité utilisés dans les différentes méthodes. Dans la deuxième partie de la thèse, nous avons étudié la fiabilité de méthodes plus avancées dans la prédiction de l'effet des mélanges pour les communautés évoluant dans le système aquatique. Ces méthodes reposent sur le modèle d'addition des concentrations (CA) ou d'addition des réponses (RA) appliqués sur les courbes de distribution de la sensibilité des espèces (SSD) aux substances. En effet, les modèles de mélanges ont été développés et validés pour être appliqués espèce par espèce, et non pas sur plusieurs espèces agrégées simultanément dans les courbes SSD. Nous avons ainsi proposé une procédure plus rigoureuse, pour l'évaluation du risque d'un mélange, qui serait d'appliquer d'abord les modèles CA ou RA à chaque espèce séparément, et, dans une deuxième étape, combiner les résultats afin d'établir une courbe SSD du mélange. Malheureusement, cette méthode n'est pas applicable dans la plupart des cas, car elle nécessite trop de données généralement indisponibles. Par conséquent, nous avons comparé, avec des valeurs générées aléatoirement, le calcul de risque effectué selon cette méthode plus rigoureuse, avec celle effectuée traditionnellement, afin de caractériser la robustesse de cette approche qui consiste à appliquer les modèles de mélange sur les courbes SSD. Nos résultats ont montré que l'utilisation de CA directement sur les SSDs peut conduire à une sous-estimation de la concentration du mélange affectant 5 % ou 50% des espèces, en particulier lorsque les substances présentent un grand écart- type dans leur distribution de la sensibilité des espèces. L'application du modèle RA peut quant à lui conduire à une sur- ou sous-estimations, principalement en fonction de la pente des courbes dose- réponse de chaque espèce composant les SSDs. La sous-estimation avec RA devient potentiellement importante lorsque le rapport entre la EC50 et la EC10 de la courbe dose-réponse des espèces est plus petit que 100. Toutefois, la plupart des substances, selon des cas réels, présentent des données d' écotoxicité qui font que le risque du mélange calculé par la méthode des modèles appliqués directement sur les SSDs reste cohérent et surestimerait plutôt légèrement le risque. Ces résultats valident ainsi l'approche utilisée traditionnellement. Néanmoins, il faut garder à l'esprit cette source d'erreur lorsqu'on procède à une évaluation du risque d'un mélange avec cette méthode traditionnelle, en particulier quand les SSD présentent une distribution des données en dehors des limites déterminées dans cette étude. Enfin, dans la dernière partie de cette thèse, nous avons confronté des prédictions de l'effet de mélange avec des changements biologiques observés dans l'environnement. Dans cette étude, nous avons utilisé des données venant d'un suivi à long terme d'un grand lac européen, le lac Léman, ce qui offrait la possibilité d'évaluer dans quelle mesure la prédiction de la toxicité des mélanges d'herbicide expliquait les changements dans la composition de la communauté phytoplanctonique. Ceci à côté d'autres paramètres classiques de limnologie tels que les nutriments. Pour atteindre cet objectif, nous avons déterminé la toxicité des mélanges sur plusieurs années de 14 herbicides régulièrement détectés dans le lac, en utilisant les modèles CA et RA avec les courbes de distribution de la sensibilité des espèces. Un gradient temporel de toxicité décroissant a pu être constaté de 2004 à 2009. Une analyse de redondance et de redondance partielle, a montré que ce gradient explique une partie significative de la variation de la composition de la communauté phytoplanctonique, même après avoir enlevé l'effet de toutes les autres co-variables. De plus, certaines espèces révélées pour avoir été influencées, positivement ou négativement, par la diminution de la toxicité dans le lac au fil du temps, ont montré des comportements similaires dans des études en mésocosmes. On peut en conclure que la toxicité du mélange herbicide est l'un des paramètres clés pour expliquer les changements de phytoplancton dans le lac Léman. En conclusion, il existe diverses méthodes pour prédire le risque des mélanges de micropolluants sur les espèces aquatiques et celui-ci peut jouer un rôle dans le fonctionnement des écosystèmes. Toutefois, ces modèles ont bien sûr des limites et des hypothèses sous-jacentes qu'il est important de considérer lors de leur application, avant d'utiliser leurs résultats pour la gestion des risques environnementaux. - For several years now, the scientists as well as the society is concerned by the aquatic risk organic micropollutants may pose. Indeed, several researches have shown the toxic effects these substances may induce on organisms living in our lakes or rivers, especially when they are exposed to acute or chronic concentrations. However, most of the studies focused on the toxicity of single compounds, i.e. considered individually. The same also goes in the current European regulations concerning the risk assessment procedures for the environment of these substances. But aquatic organisms are typically exposed every day simultaneously to thousands of organic compounds. The toxic effects resulting of these "cocktails" cannot be neglected. The ecological risk assessment of mixtures of such compounds has therefore to be addressed by scientists in the most reliable and appropriate way. In the first part of this thesis, the procedures currently envisioned for the aquatic mixture risk assessment in European legislations are described. These methodologies are based on the mixture model of concentration addition and the use of the predicted no effect concentrations (PNEC) or effect concentrations (EC50) with assessment factors. These principal approaches were applied to two specific case studies, Lake Geneva and the River Rhône in Switzerland, including a discussion of the outcomes of such applications. These first level assessments showed that the mixture risks for these studied cases exceeded rapidly the critical value. This exceeding is generally due to two or three main substances. The proposed procedures allow therefore the identification of the most problematic substances for which management measures, such as a reduction of the entrance to the aquatic environment, should be envisioned. However, it was also showed that the risk levels associated with mixtures of compounds are not negligible, even without considering these main substances. Indeed, it is the sum of the substances that is problematic, which is more challenging in term of risk management. Moreover, a lack of reliability in the procedures was highlighted, which can lead to contradictory results in terms of risk. This result is linked to the inconsistency in the assessment factors applied in the different methods. In the second part of the thesis, the reliability of the more advanced procedures to predict the mixture effect to communities in the aquatic system were investigated. These established methodologies combine the model of concentration addition (CA) or response addition (RA) with species sensitivity distribution curves (SSD). Indeed, the mixture effect predictions were shown to be consistent only when the mixture models are applied on a single species, and not on several species simultaneously aggregated to SSDs. Hence, A more stringent procedure for mixture risk assessment is proposed, that would be to apply first the CA or RA models to each species separately and, in a second step, to combine the results to build an SSD for a mixture. Unfortunately, this methodology is not applicable in most cases, because it requires large data sets usually not available. Therefore, the differences between the two methodologies were studied with datasets created artificially to characterize the robustness of the traditional approach applying models on species sensitivity distribution. The results showed that the use of CA on SSD directly might lead to underestimations of the mixture concentration affecting 5% or 50% of species, especially when substances present a large standard deviation of the distribution from the sensitivity of the species. The application of RA can lead to over- or underestimates, depending mainly on the slope of the dose-response curves of the individual species. The potential underestimation with RA becomes important when the ratio between the EC50 and the EC10 for the dose-response curve of the species composing the SSD are smaller than 100. However, considering common real cases of ecotoxicity data for substances, the mixture risk calculated by the methodology applying mixture models directly on SSDs remains consistent and would rather slightly overestimate the risk. These results can be used as a theoretical validation of the currently applied methodology. Nevertheless, when assessing the risk of mixtures, one has to keep in mind this source of error with this classical methodology, especially when SSDs present a distribution of the data outside the range determined in this study Finally, in the last part of this thesis, we confronted the mixture effect predictions with biological changes observed in the environment. In this study, long-term monitoring of a European great lake, Lake Geneva, provides the opportunity to assess to what extent the predicted toxicity of herbicide mixtures explains the changes in the composition of the phytoplankton community next to other classical limnology parameters such as nutrients. To reach this goal, the gradient of the mixture toxicity of 14 herbicides regularly detected in the lake was calculated, using concentration addition and response addition models. A decreasing temporal gradient of toxicity was observed from 2004 to 2009. Redundancy analysis and partial redundancy analysis showed that this gradient explains a significant portion of the variation in phytoplankton community composition, even when having removed the effect of all other co-variables. Moreover, some species that were revealed to be influenced positively or negatively, by the decrease of toxicity in the lake over time, showed similar behaviors in mesocosms studies. It could be concluded that the herbicide mixture toxicity is one of the key parameters to explain phytoplankton changes in Lake Geneva. To conclude, different methods exist to predict the risk of mixture in the ecosystems. But their reliability varies depending on the underlying hypotheses. One should therefore carefully consider these hypotheses, as well as the limits of the approaches, before using the results for environmental risk management

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary : International comparisons in the area of victimization, particularly in the field of violence against women, are fraught with methodological problems that previous research has not systematically addressed, and whose answer does not seem to be agreed up~n. For obvious logistic and financial reasons, international studies on violence against women (i.e. studies that administer the same instrument in different countries). are seldom; therefore, researchers are bound to resort to secondary comparisons. Many studies simply juxtapose their results to the ones of previous wòrk or to findings obtained in different contexts, in order to offer an allegedly comparative perspective to their conclusions. If, most of the time, researchers indicate the methodological limitations of a direct comparison, it is not rare that these do not result in concrete methodological controls. Yet, many studies have shown the influence of surveys methodological parameters on findings, listing recommendations fora «best practice» of research. Although, over the past decades, violence against women surveys have become more and more similar -tending towards a sort of uniformization that could be interpreted as a passive consensus -these instruments retain more or less subtle differences that are still susceptible to influence the validity of a comparison. Yet, only a small number of studies have directly worked on the comparability of violence against women data, striving to control the methodological parameters of the surveys in order to guarantee the validity of their comparisons. The goal of this work is to compare data from two national surveys on violence against women: the Swiss component of the International Violence Against Women Survey [CH-IVAWS] and the National Violence Against Women Survey [NVAWS] administered in the United States. The choice of these studies certainly ensues from the author's affiliations; however, it is far from being trivial. Indeed, the criminological field currently endows American and Anglo-Saxon literature with a predominant space, compelling researchers from other countries to almost do the splits to interpret their results in the light of previous work or to develop effective interventions in their own context. Turning to hypotheses or concepts developed in a specific framework inevitably raises the issue of their applicability to another context, i.e. the Swiss context, if not at least European. This problematic then takes on an interest that goes beyond the particular topic of violence against women, adding to its relevance. This work articulates around three axes. First, it shows the way survey characteristics influence estimates. The comparability of the nature of the CH-IVAWS and NVAWS, their sampling design and the characteristics of their administration are discussed. The definitions used, the operationalization of variables based on comparable items, the control of reference periods, as well as the nature of the victim-offender relationship are included among controlled factors. This study establishes content validity within and across studies, presenting a systematic process destined to maximize the comparability of secondary data. Implications of the process are illustrated with the successive presentation of comparable and non-comparable operationalizations of computed variables. Measuring violence against. women in Switzerland and the United-States, this work compares the prevalence of different forms (threats, physical violence and sexual violence) and types of violence (partner and nonpartner violence). Second, it endeavors to analyze concepts of multivictimization (i.e. experiencing different forms of victimization), repeat victimization (i.e. experiencing the same form of violence more than once), and revictimization (i.e. the link between childhood and adulthood victimization) in a comparative -and comparable -approach. Third, aiming at understanding why partner violence appears higher in the United States, while victims of nonpartners are more frequent in Switzerland, as well as in other European countries, different victimization correlates are examined. This research contributes to a better understanding of the relevance of controlling methodological parameters in comparisons across studies, as it illustrates, systematically, the imposed controls and their implications on quantitative data. Moreover, it details how ignoring these parameters might lead to erroneous conclusions, statistically as well as theoretically. The conclusion of the study puts into a wider perspective the discussion of differences and similarities of violence against women in Switzerland and the United States, and integrates recommendations as to the relevance and validity of international comparisons, whatever the'field they are conducted in. Résumé: Les comparaisons internationales dans le domaine de la victimisation, et plus particulièrement en ce qui concerne les violences envers les femmes, se caractérisent par des problèmes méthodologiques que les recherches antérieures n'ont pas systématiquement adressés, et dont la réponse ne semble pas connaître de consensus. Pour des raisons logistiques et financières évidentes, les études internationales sur les violences envers les femmes (c.-à-d. les études utilisant un même instrument dans différents pays) sont rares, aussi les chercheurs sont-ils contraints de se tourner vers des comparaisons secondaires. Beaucoup de recherches juxtaposent alors simplement leurs résultats à ceux de travaux antérieurs ou à des résultats obtenus dans d'autres contextes, afin d'offrir à leurs conclusions une perspective prétendument comparative. Si, le plus souvent, les auteurs indiquent les limites méthodologiques d'une comparaison directe, il est fréquent que ces dernières ne se traduisent pas par des contrôles méthodologiques concrets. Et pourtant, quantité de travaux ont mis en évidence l'influence des paramètres méthodologiques des enquêtes sur les résultats obtenus, érigeant des listes de recommandations pour une «meilleure pratique» de la recherche. Bien que, ces dernières décennies, les sondages sur les violences envers les femmes soient devenus de plus en plus similaires -tendant, vers une certaine uniformisation que l'on peut interpréter comme un consensus passif-, il n'en demeure pas moins que ces instruments possèdent des différences plus ou moins subtiles, mais toujours susceptibles d'influencer la validité d'une comparaison. Pourtant, seules quelques recherches ont directement travaillé sur la comparabilité des données sur les violences envers les femmes, ayant à coeur de contrôler les paramètres méthodologiques des études utilisées afin de garantir la validité de leurs comparaisons. L'objectif de ce travail est la comparaison des données de deux sondages nationaux sur les violences envers les femmes: le composant suisse de l'International Violence Against Women Survey [CHIVAWSj et le National Violence Against Women Survey [NVAWS) administré aux États-Unis. Le choix de ces deux études découle certes des affiliations de l'auteure, cependant il est loin d'être anodin. Le champ criminologique actuel confère, en effet, une place prépondérante à la littérature américaine et anglo-saxonne, contraignant ainsi les chercheurs d'autres pays à un exercice proche du grand écart pour interpréter leurs résultats à la lumière des travaux antérieurs ou développer des interventions efficaces dans leur propre contexte. Le fait de recourir à des hypothèses et des concepts développés dans un cadre spécifique pose inévitablement la question de leur applicabilité à un autre contexte, soit ici le contexte suisse, sinon du moins européen. Cette problématique revêt alors un intérêt qui dépasse la thématique spécifique des violences envers les femmes, ce qui ajoute à sa pertinence. Ce travail s'articule autour de trois axes. Premièrement, il met en évidence la manière dont les caractéristiques d'un sondage influencent les estimations qui en découlent. La comparabilité de la nature du CH-IVAWS et du NVAWS, de leur processus d'échantillonnage et des caractéristiques de leur administration est discutée. Les définitions utilisées, l'opérationnalisation des variables sur la base d'items comparables, le contrôle des périodes de référence, ainsi que la nature de la relation victime-auteur figurent également parmi les facteurs contrôlés. Ce travail établit ainsi la validité de contenu intra- et inter-études, offrant un processus systématique destiné à maximiser la comparabilité des données secondaires. Les implications de cette démarche sont illustrées avec la présentation successive d'opérationnalisations comparables et non-comparables des variables construites. Mesurant les violences envers les femmes en Suisse et aux États-Unis, ce travail compare la prévalence de plusieurs formes (menaces, violences physiques et violences sexuelles) et types de violence (violences partenaires et non-partenaires). 11 s'attache également à analyser les concepts de multivictimisation (c.-à-d. le fait de subir plusieurs formes de victimisation), victimisation répétée (c.-à.-d. le fait de subir plusieurs incidents de même forme) et revictimisation (c.-à-d. le lien entre la victimisation dans l'enfance et à l'âge adulte) dans une approche comparative - et comparable. Dans un troisième temps, cherchant à comprendre pourquoi la violence des partenaires apparaît plus fréquente aux États-Unis, tandis que les victimes de non-partenaires sont plus nombreuses en Suisse, et dans d'autres pays européens, différents facteurs associés à la victimisation sont évalués. Cette recherche participe d'une meilleure compréhension de la pertinence du contrôle des paramètres méthodologiques dans les comparaisons entre études puisqu'elle illustre, pas à pas, les contrôles imposés et leurs effets sur les données quantitatives, et surtout comment l'ignorance de ces paramètres peut conduire à des conclusions erronées, tant statistiquement que théoriquement. La conclusion replace, dans un contexte plus large, la discussion des différences et des similitudes observées quant à la prévalence des violences envers les femmes en Suisse et aux États-Unis, et intègre des recommandations quant à la pertinence et à la validité des comparaisons internationales, cela quel que soit le domaine considéré.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recherche, faisant l'objet de la présente communication, interroge cette nouvelle répartition des rôles telle qu'elle a été théorisée dans les écrits gestionnaires portant sur la NGP. Nous investiguons donc la véracité de l'affirmation selon laquelle une gestion moderne, efficiente et efficace des affaires publiques implique une séparation plus stricte des sphères politiques et administratives. Autrement dit, est-ce que la mise en oeuvre des réformes managériales au sein des administrations cantonales de Suisse romande change effectivement la nature de la relation entre les hauts fonctionnaires et leurs ministres de tutelle ? Pour apporter un début de réponse à cette question, nous avons décidé de nous approcher de trois cantons romands qui se trouvent dans des dynamiques de réforme administrative d'ampleur différentes. Aussi, notre choix de terrain s'est porté sur le canton du Valais, qui est l'un des plus avancés en matière de NGP, sur le canton de Neuchâtel, qui se trouve dans une dynamique hybride puisque certains services administratifs ont adopté les principes de la contractualisation sur base volontaire et d'autres non, ansi que le canton du Jura qui n'a pas, pour l'instant, opté pour les nouveaux principes et outils de la NGP. La comparaison de ces trois entités, dont les trajectoires de modernisation diffèrent, nous permettra de constater ou non des différences d'appréciation dans la nature des relations politico-administratives des trois cantons. Si l'on se réfère à la description idéale-typique proposée par les tenants de la NGP, nous devrions constater d'importantes divergences. Enfin, il est à relever que cette recherche est pionnière en Suisse puisqu'aucune autre étude à ce jour ne s'est attelée à décrire ces changements relationnels, comme cela a été le cas dans la plupart des pays de l'OCDE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé: Les récents progrès techniques de l'imagerie cérébrale non invasives ont permis d'améliorer la compréhension des différents systèmes fonctionnels cérébraux. Les approches multimodales sont devenues indispensables en recherche, afin d'étudier dans sa globalité les différentes caractéristiques de l'activité neuronale qui sont à la base du fonctionnement cérébral. Dans cette étude combinée d'imagerie par résonance magnétique fonctionnelle (IRMf) et d'électroencéphalographie (EEG), nous avons exploité le potentiel de chacune d'elles, soit respectivement la résolution spatiale et temporelle élevée. Les processus cognitifs, de perception et de mouvement nécessitent le recrutement d'ensembles neuronaux. Dans la première partie de cette thèse nous étudions, grâce à la combinaison des techniques IRMf et EEG, la réponse des aires visuelles lors d'une stimulation qui demande le regroupement d'éléments cohérents appartenant aux deux hémi-champs visuels pour en faire une seule image. Nous utilisons une mesure de synchronisation (EEG de cohérence) comme quantification de l'intégration spatiale inter-hémisphérique et la réponse BOLD (Blood Oxygenation Level Dependent) pour évaluer l'activité cérébrale qui en résulte. L'augmentation de la cohérence de l'EEG dans la bande beta-gamma mesurée au niveau des électrodes occipitales et sa corrélation linéaire avec la réponse BOLD dans les aires de VP/V4, reflète et visualise un ensemble neuronal synchronisé qui est vraisemblablement impliqué dans le regroupement spatial visuel. Ces résultats nous ont permis d'étendre la recherche à l'étude de l'impact que le contenu en fréquence des stimuli a sur la synchronisation. Avec la même approche, nous avons donc identifié les réseaux qui montrent une sensibilité différente à l'intégration des caractéristiques globales ou détaillées des images. En particulier, les données montrent que l'implication des réseaux visuels ventral et dorsal est modulée par le contenu en fréquence des stimuli. Dans la deuxième partie nous avons a testé l'hypothèse que l'augmentation de l'activité cérébrale pendant le processus de regroupement inter-hémisphérique dépend de l'activité des axones calleux qui relient les aires visuelles. Comme le Corps Calleux présente une maturation progressive pendant les deux premières décennies, nous avons analysé le développement de la fonction d'intégration spatiale chez des enfants âgés de 7 à 13 ans et le rôle de la myelinisation des fibres calleuses dans la maturation de l'activité visuelle. Nous avons combiné l'IRMf et la technique de MTI (Magnetization Transfer Imaging) afin de suivre les signes de maturation cérébrale respectivement sous l'aspect fonctionnel et morphologique (myelinisation). Chez lés enfants, les activations associées au processus d'intégration entre les hémi-champs visuels sont, comme chez l'adulte, localisées dans le réseau ventral mais se limitent à une zone plus restreinte. La forte corrélation que le signal BOLD montre avec la myelinisation des fibres du splenium est le signe de la dépendance entre la maturation des fonctions visuelles de haut niveau et celle des connections cortico-corticales. Abstract: Recent advances in non-invasive brain imaging allow the visualization of the different aspects of complex brain dynamics. The approaches based on a combination of imaging techniques facilitate the investigation and the link of multiple aspects of information processing. They are getting a leading tool for understanding the neural basis of various brain functions. Perception, motion, and cognition involve the formation of cooperative neuronal assemblies distributed over the cerebral cortex. In this research, we explore the characteristics of interhemispheric assemblies in the visual brain by taking advantage of the complementary characteristics provided by EEG (electroencephalography) and fMRI (Functional Magnetic Resonance Imaging) techniques. These are the high temporal resolution for EEG and high spatial resolution for fMRI. In the first part of this thesis we investigate the response of the visual areas to the interhemispheric perceptual grouping task. We use EEG coherence as a measure of synchronization and BOLD (Blood Oxygenar tion Level Dependent) response as a measure of the related brain activation. The increase of the interhemispheric EEG coherence restricted to the occipital electrodes and to the EEG beta band and its linear relation to the BOLD responses in VP/V4 area points to a trans-hemispheric synchronous neuronal assembly involved in early perceptual grouping. This result encouraged us to explore the formation of synchronous trans-hemispheric networks induced by the stimuli of various spatial frequencies with this multimodal approach. We have found the involvement of ventral and medio-dorsal visual networks modulated by the spatial frequency content of the stimulus. Thus, based on the combination of EEG coherence and fMRI BOLD data, we have identified visual networks with different sensitivity to integrating low vs. high spatial frequencies. In the second part of this work we test the hypothesis that the increase of brain activity during perceptual grouping depends on the activity of callosal axons interconnecting the visual areas that are involved. To this end, in children of 7-13 years, we investigated functional (functional activation with fMRI) and morphological (myelination of the corpus callosum with Magnetization Transfer Imaging (MTI)) aspects of spatial integration. In children, the activation associated with the spatial integration across visual fields was localized in visual ventral stream and limited to a part of the area activated in adults. The strong correlation between individual BOLD responses in .this area and the myelination of the splenial system of fibers points to myelination as a significant factor in the development of the spatial integration ability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La neuroinflammation joue un rôle important dans de nombreuses maladies neurodégéneratives dont la sclérose en plaques. Les microglies et les astrocytes sont les cellules effectrices de la réponse inflammatoire dans le cerveau et sont impliquées dans les processus de démyélinisation et de remyélinisation. Dans ce travail, nous avons étudié les réactions inflammatoires accompagnant la démyélinisation et leurs conséquences sur la remyélinisation. Dans ce but, trois différents traitements démyélinisants ont été appliqués sur des cultures en agrégats de télencéphales de rats, à savoir (i) la lysophosphatidylcholine, (ii) l'interféron-γ (IFN-γ) combiné avec du lipopolysaccharide (LPS), et (iii) des anticorps dirigés contre la MOG (myelin oligodendrocyte glycoprotein) en présence de complément. Nous avons montré que ces traitements induisent différents types de démyélinisation, de réponses inflammatoires et d'effets secondaires sur les neurones. Nous avons ensuite examiné les effets de l'atténuation de la réponse inflammatoire sur la démyélinisation et la remyélinisation, en utilisant la minocycline, un antibiotique bloquant la réactivité microgiale, et le GW 5501516, un agoniste de PPAR-β (peroxisome proliferator-activated receptor-β). Nous avons montré que la minocycline prévient l'activation microgliale induite par le traitement avec l'IFN-γ et le LPS, mais qu'elle ne protège pas de la démyélinisation. Néanmoins, elle induit une remyélinisation, probablement en favorisant la maturation d'oligodendrocytes immatures. Le GW 501516 diminue l'expression de l'IFN-γ après une démyélinisation induite par les anticorps anti-MOG, mais il ne prévient pas la démyélinisation et ne favorise pas la remyélinisation. Ces résultats indiquent que la démyélinisation induite par le traitement avec l'IFN-γ et le LPS n'est pas une conséquence directe de l'activation microgliale, et que l'augmentation de l'expression de l'IFN-γ ne participe pas à la démyélinisation induite par les anticorps anti-MOG. Ces résultats suggèrent que l'atténuation de l'activation microgliale est bénéfique pour la remyélinisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : Neonatal stroke occurs in 1 out of 4000 live births and usually leads to serious motor and cognitive disabilities. Ischemic brain injury results from a complex of pathophysiological events that evolve over space and time making it difficult to devise successful therapy. To date, there are no effective treatments for perinatal brain damage. Most clinical trials of neuroprotectaot drugs have failed because of their side-effects. For this reason it is important to find ways to target drugs specifically into the stressed cells. In this study we plan to contribute to the development of an efficient neuroprotective strategy against excitotoxic cell death in the neonate. In order to achieve this goal, several strategies were followed. A recently described phenomenon of induced endocytosis associated with excitotoxicity was more deeply investigated. As a simplified model we used dissociated cortical neurons exposed to an excitotoxic dose of NMDA, and we showed that this phenomenon depends on clathrin and dynamin. Using a model of neonatal focal cerebral ischemia, we demonstrated that the excitotoxicity-related endocytosis targets molecules such as TAT peptides into stressed neurons. These appear to be viable, raising the possibility of using this phenomenon as a doorway for neuroprotection. One part of the project was devoted to the study of the TAT-conjugated JNK inhibitory peptide, D-JNKI1. Adose-response study showed strong neuroprotection over a wide dose-range in the case of delayed administration (either intravenous or intraperitoneal). Since D-JNKI1 is aTAT-linked peptide, we investigated the role of its own NMDA-induced endocytosis in its neuroprotective efficacy. Furthermore, we showed that this endocytosis is JNK dependent, and that D-JNKI1 regulates its own uptake. We additionally studied the different types of cell death involved in a model of neonatal focal cerebral ischemia. Necrosis occurred rapidly in the center of the lesion whereas apoptosis and autophagic cell death occurred late at the lesion border. Inhibiting apoptosis was not protective, but use of autophagy inhibitor 3methyladenine provided a strong neuroprotection. Finally, combining two neuroprotectants that target different intracellular pathways was neuroprotective in a severe model of cerebral ischemia where neither of the drugs was efficient when administered individually. Résumé : L'ischémie néonatale connaît une incidence de 1 naissance sur 4000, entraînant généralement de sérieux dysfonctionnements moteurs et cognitifs. L'ischémie cérébrale résulte d'évènements physiopathologiques complexes qui évoluent dans l'espace et le temps rendant difficile la conception de thérapies efficaces. A l'heure actuelle, aucun traitement n'existe pour lutter contre les accidents vasculaires cérébraux qui se produisent autour de la naissance. La plupart des essais cliniques concernant des molécules neuroprotectrices ont échoué du fait de leurs effets secondaires néfastes. Pour cette raison, il est important de trouver des moyens de cibler les drogues dans les cellules stressées spécifiquement. Dans cette étude nous visons à participer au développement d'une stratégie neuroprotectrice efficace contre l'ischémie cérébrale chez le nouveau-né. Dans ce but, plusieurs stratégies ont été poursuivies. Un nouveau phénomène d'endocytose induite par un stimulus excitotoxique a été récemment décrit. Une partie de cette étude va consister à mieux comprendre ce phénomène. Pour céla, nous avons utilisé comme modèle d'étude simplifié des cultures dissociées de neurones corticaux exposées à une dose excitotoxique de NMDA. Nous avons ainsi montré que cette endocytose associée à l'excitotoxicité dépend de la clathrine et de la dynamine. A l'aide d'un modèle d'ischémie cérébrale focale chez le raton de 12 jours, nous avons démontré que cette endocytose induite par l'excitotoxicité permet de cibler des molécules diverses et en particulier les peptides TAT dans les neurones stressés. Ces neurones fortement endocytiques apparaissent comme étant encore viables, ouvrant la possibilité d'utiliser cette endocytose comme moyen d'entrée pour des molécules thérapeutiques. Une partie du projet a été consacrée à l'étude d'un inhibiteur de la voie JNK, couplé au TAT, appelé D-JNKI1. Des études de dose réponse du D-JNKI1 ont été réalisées chez l'animal, testant les effets d'une administration retardée en injection intraveineuse ou intra péritonéale. Ces études démontrent qu'une large gamme de dose permet d'obCenir une réduction de la taille de la lésion. Comme D-JNK11 est couplé au peptide TAT, nous avons étudié la contribution que sa propre endocytose lors de l'excitotoxicité apporte à ses effets protecteurs. Par ailleurs, nous avons montré que cette endocytose induite par l'excitotoxicité dépend de la voie de signalisation JNK et que D-JNK11 est donc capable de réguler sa propre entrée. Nous avons en parallèle étudié les différents types de mort cellulaires impliqués dans le développement de la lésion dans un modèle sévère d'ischémie cérébrale chez le raton nouveau-né. La mort cellulaire par nécrose se développe rapidement dans le centre de la lésion alors que les morts cellulaires par apoptose et autophagique vont apparaître plus tard et au bord de la lésion. Inhiber l'apoptose n'a pas permis de réduire la taille de la lésion alors que l'utilisation d'un inhibiteur d'autophagie, la 3-méthyladénine, procure une forte neuroprotection. Finalement, la combinaison de deux peptides qui ciblent différentes voies de signalisation intracellulaire permet d'obtenir une bonne protection dans le modèle d'ischémie sévère dans lequel aucun des deux peptides administré séparément n'a donné d'effets bénéfiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: L'efficacité d'une séance de VNI est habituellement évaluée selon la réponse clinique, l'amélioration de l'acidose respiratoire et de l'hypercapnie. Le but de cette étude était d'évaluer l'intérêt de la mesure du CO2 en fin d'expiration (PETCO2) pour estimer la PaCO2 et son évolution dans le temps. Patients et Méthodes: Des patients de réanimation souffrant d'une insuffisance respiratoire aiguë hypercapnique (PaCO2 >45 mmHg) ont été inclus dans cette étude prospective. La PETCO2était mesurée à l'aide d'un capteur nasobuccal (SmartLine®, Oridion) au cours d'une séance de VNI de 60 minutes. Une gazométrie artérielle et la valeur de PETCO2 étaient enregistrées au début de la séance puis chaque 15 minutes. Des manoeuvres d'expiration complète passives et actives étaient effectuées à 30 et 60 minutes. Le gradient de CO2 (PaCO2- PETCO2) a été calculé pour l'ensemble des mesures, spécifiquement pour chaque manoeuvre d'expiration complète, ainsi qu'individuellement pour chaque patient. Ces grandeurs sont exprimées en moyenne et écart-type pour évaluer le biais et la dispersion observés entre PaCO2 et PETCO2. La différence entre chaque valeurs consécutives de gradient de CO2 (delta gradient de CO2) a été calculées par patient. Cette mesure quantifie la variation au cours du temps du gradient de CO2 pour un patient donné. Résultats: 11 patients ont été inclus (7 BPCO, 1 restrictif et 1 syndrome d'apnée du sommeil). Sur l'ensemble des mesures, le gradient de CO2 était de 14.7 + 10.6 mmHg, lors des manoeuvres d'expiration complètes active il était de 8.1 + 13.0 mmHg, et de 8.8 + 11.9 mmHg lors des expirations passives. Conclusion: Chez les patients présentant une insuffisance respiratoire aiguë hypercanique traitée par VNI, la mesure de la PETCO2 par capteur nasobuccal ne permet de prédire ni la valeur de PaCO2, ni son évolution dans le temps. Les manoeuvres d'expiration complète n'apportent aucune plus value.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wie steht es um die Beteiligung der Stimmbürgerinnen und Stimmbürger an lokalen Wahlen? Es mag angesichts der Bedeutung der Gemeinden im politischen Leben in der Schweiz erstaunen, dass zur Wahlbeteiligung auf kommunaler Ebene keine offiziellen, landesweiten Statistiken vorliegen. Damit waren Fragen nach dem Ausmass der lokalen Beteiligung im Verhältnis zur Beteiligung an nationalen Wahlen oder nach der Entwicklung der Beteiligung über die Zeit hinweg bis anhin kaum zu beantworten. Ebenso fehlte es an Kenntnissen über unterschiedliche regionale Beteiligungskulturen und über den Einfluss von institutionellen Faktoren, wie beispielsweise der Existenz eines Gemeindeparlaments auf die Höhe der Wahlbeteiligung. Auf der Basis von fünf gesamtschweizerischen Gemeindeschreiberbefragungen, die in regelmässigen Abständen seit Ende der 1980er Jahren durchgeführt wurden, wird in dieser Publikation erstmals eine umfassende Gesamtsicht zu den lokalen Wahlen in der Schweiz präsentiert. Behandelt werden neben charakteristischen Besonderheiten lokaler Wahlen (Wahlort, Wahlsystem), Fragen zur Umstrittenheit und den Ergebnissen dieser Wahlen. Im Mittelpunkt steht die Wahlbeteiligung: Es wird gezeigt, wie sich diese über die Zeit hinweg verändert hat, wie sie sich im Verhältnis zur Beteiligung an kantonalen und nationalen Wahlen verhält und welche Faktoren zu einer hohen Wahlbeteiligung führen. Qu'en est-il de la participation électorale aux élections locales? De manière surprenante, sur le plan national, il n'existe aucune statistique officielle concernant la participation aux élections communales et ce, malgré l'importance des communes dans la vie politique suisse. Ainsi, jusqu'à présent plusieurs questions restaient sans réponse : l'importance de la participation aux élections locales en comparaison avec celle de la participation aux élections fédérales, l'évolution dans le temps de la participation aux élections locales, les différentes cultures régionales de participation électorale et l'influence de facteurs institutionnels (comme l'existence d'un Parlement communal) sur la participation électorale. Sur la base de cinq enquêtes menées à intervalles réguliers depuis la fin des années 1980 auprès de secrétaires municipaux de l'ensemble de la Suisse, cette publication présente pour la première fois une vue d'ensemble détaillée des élections locales en Suisse. Cette publication traite, en plus des caractéristiques des élections locales (système électoral, lieu de vote), de questions relatives au caractère disputé de ces élections et de leurs résultats. Le point central de cette publication est la participation électorale : les questions concernant son évolution dans le temps, son comportement par rapport à la participation aux élections cantonales et fédérales ainsi que les facteurs générant une augmentation de la participation sont également abordées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce texte est un « droit de réponse » par les auteurs de l'article « Vers un naturalisme social. À la croisée des sciences sociales et des sciences cognitives », publié par SociologieS en octobre 2011, au débat qu'il a suscité. Après une brève mise au point sur la forme même du débat, ainsi que sur les dissensions ponctuelles qui opposent les différents protagonistes, l'article répond aux inquiétudes parfaitement légitimes et aux questions de fond que soulève le naturalisme social.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Le glioblastome (GBM, WHO grade IV) est la tumeur cérébrale primaire la plus fréquente et la plus maligne, son pronostic reste très réservé et sa réponse aux différents traitements limitée. Récemment, une étude clinique randomisée (EORTC 26981/NCIC CE.3) a démontré que le traitement combiné de temozolomide et radiothérapie (RT/TMZ) est le meilleur dans les cas de GBM nouvellement diagnostiqués [1]. Cependant, seul un sous-groupe de patients bénéficie du traitement RT/TMZ et même parmi eux, leur survie reste très limitée. Pour tenter de mieux comprendre les réponses au traitement RT/TMZ, la biologie du GBM, identifier d'autres facteurs de résistance et découvrir de nouvelles cibles aux traitements, nous avons conduit une analyse moléculaire étendue à 73 patients inclus dans cette étude clinique. Nous avons complété les résultats moléculaires déjà obtenus par un profil génomique du nombre de copies par Array Comparative Genomic Hybridization. Afin d'atteindre nos objectifs, nous avons analysé en parallèle les données cliniques des patients et leurs profils moléculaires. Nos résultats confirment des analyses connues dans le domaine des aberrations du nombre de copies (CNA) et de profils du glioblastome. Nous avons observé une bonne corrélation entre le CNA génomique et l'expression de l'ARN messager dans le glioblastome et identifié un nouveau modèle de CNA du chromosome 7 pouvant présenter un intérêt clinique. Nous avons aussi observé par l'analyse du CNA que moins de 10% des glioblastomes conservent leurs mécanismes de suppression de tumeurs p53 et Rb1. Nous avons aussi observé que l'amplification du CDK4 peut constituer un facteur supplémentaire de résistance au traitement RT/TMZ, cette observation nécessite confirmation sur un plus grand nombre d'analyses. Nous avons montré que dans notre analyse des profils moléculaires et cliniques, il n'est pas possible de différencier le GBM à composante oligodendrogliale (GBM-O) du glioblastome. En superposant les profils moléculaires et les modèles expérimentaux in vitro, nous avons identifié WIF-1 comme un gène suppresseur de tumeur probable et une activation du signal WNT dans la pathologie du glioblastome. Ces observations pourraient servir à une meilleure compréhension de cette maladie dans le futur. Abstract : Glioblastoma, (GBM, WHO grade IV) is the most malignant and most frequent primary brain tumor with a very poor prognosis and response to therapy. A recent randomized clinical trial (EORTC26981/NCIC CE.3) established RT/TMZ as the 1St effective chemo-radiation therapy in newly diagnosed GBM [1]. However only a genetic subgroup of patients benefit from RT/TMZ and even in this subgroup overall survival remains very dismal. To explain the observed response to RT/TMZ, have a better understanding of GBM biology, identify other resistance factors and discover new drugable targets a comprehensive molecular analysis was performed in 73 of these GBM trial cohort. We complemented the available molecular data with a genomic copy number profiling by Array Comparative Genomic Hybridization. We proceeded to align the molecular profiles and the Clinical data, to meet our project objectives. Our data confirm known GBM Copy Number Aberrations and profiles. We observed a good correlation of genomic CN and mRNA expression in GBM, and identified new interesting CNA pattern for chromosome 7 with a potential clinical value. We also observed that by copy number aberration data alone, less than 10% of GBM have an intact p53 and Rb1 tumor .suppressor pathways. We equally observed that CDK4 amplification might constitute an additional RT/TMZ resistant factor, an observation that will need confirmation in a larger data set. We show that the molecular and clinical profiles in our data set, does not support the identification of GBM-O as a new entity in GBM. By combining the molecular profiles and in vitro model experiments we identify WIF1 as a potential GBM TSG and an activated WNT signaling as a pathologic event in GBM worth incorporation in attempts to better understand and impact outcome in this disease.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : La première partie de ce travail de thèse est consacrée au canal à sodium épithélial (ENaC), l'élément clé du transport transépithélial de Na+ dans le néphron distal, le colon et les voies aériennes. Ce canal est impliqué dans certaines formes génétiques d'hypo- et d'hypertension (PHA I, syndrome de Liddle), mais aussi, indirectement, dans la mucoviscidose. La réabsorption transépithéliale de Na+ est principalement régulée par des hormones (aldostérone, vasopressine), mais aussi directement par le Na+, via deux phénomènes distincts, la « feedback inhibition » et la « self-inhibition » (SI). Ce second phénomène est dépendant de la concentration de Na+ extracellulaire, et montre une cinétique rapide (constante de temps d'environ 3 s). Son rôle physiologique serait d'assurer l'homogénéité de la réabsorption de Na+ et d'empêcher que celle-ci soit excessive lorsque les concentrations de Na+ sont élevées. Différents éléments appuient l'hypothèse de la présence d'un site de détection de la concentration du Na+ extracellulaire sur ENaC, gouvernant la SI. L'objectif de ce premier projet est de démontrer l'existence du site de détection impliqué dans la SI et de déterminer ses propriétés physiologiques et sa localisation. Nous avons montré que les caractéristiques de la SI (en termes de sélectivité et affinité ionique) sont différentes des propriétés de conduction du canal. Ainsi, nos résultats confirment l'hypothèse de l'existence d'un site de détection du Na+ (responsable de la transmission de l'information au mécanisme de contrôle de l'ouverture du canal), différent du site de conduction. Par ailleurs, ce site présente une affinité basse et indépendante du voltage pour le Na+ et le Li+ extracellulaires. Le site semble donc être localisé dans le domaine extracellulaire, plutôt que transmembranaire, de la protéine. L'étape suivante consiste alors à localiser précisément le site sur le canal. Des études précédentes, ainsi que des résultats préliminaires récemment obtenus, mettent en avant le rôle dans la self-inhibition du premiers tiers des boucles extracellulaires des sous-unités α et γ du canal. Le second projet tire son origine des limitations de la méthode classique pour l'étude des canaux ioniques, après expression dans les ovocytes de Xenopus laevis, par la méthode du voltage-clamp à deux électrodes, en particulier les limitations dues à la lenteur des échanges de solutions. En outre, cette méthode souffre de nombreux désavantages (manipulations délicates et peu rapides, grands volumes de solution requis). Plusieurs systèmes améliorés ont été élaborés, mais aucun ne corrige tous les désavantages de la méthode classique Ainsi, l'objectif ici est le développement d'un système, pour l'étude électrophysiologique sur ovocytes, présentant les caractéristiques suivantes : manipulation des cellules facilitée et réduite, volumes de solution de perfusion faibles et vitesse rapide d'échange de la perfusion. Un microsystème intégré sur une puce a été élaboré. Ces capacités de mesure ont été testées en utilisant des ovocytes exprimant ENaC. Des résultats similaires (courbes IV, courbes dose-réponse au benzamil) à ceux obtenus avec le système traditionnel ont été enregistrés avec le microsystème. Le temps d'échange de solution a été estimé à ~20 ms et des temps effectifs de changement ont été déterminés comme étant 8 fois plus court avec le nouveau système comparé au classique. Finalement, la SI a été étudiée et il apparaît que sa cinétique est 3 fois plus rapide que ce qui a été estimé précédemment avec le système traditionnel et son amplitude de 10 à 20 % plus importante. Le nouveau microsystème intégré apparaît donc comme adapté à la mesure électrophysiologique sur ovocytes de Xenopus, et possèdent des caractéristiques appropriées à l'étude de phénomènes à cinétique rapide, mais aussi à des applications de type « high throughput screening ». Summary : The first part of the thesis is related to the Epithelial Sodium Channel (ENaC), which is a key component of the transepithelial Na+ transport in the distal nephron, colon and airways. This channel is involved in hypo- and hypertensive syndrome (PHA I, Liddle syndrome), but also indirectly in cystic fibrosis. The transepithelial reabsorption of Na+ is mainly regulated by hormones (aldosterone, vasopressin), but also directly by Na+ itself, via two distinct phenomena, feedback inhibition and self-inhibition. This latter phenomenon is dependant on the extracellular Na+ concentration and has rapid kinetics (time constant of about 3 s). Its physiological role would be to prevent excessive Na+ reabsorption and ensure this reabsorption is homogenous. Several pieces of evidence enable to propose the hypothesis of an extracellular Na+ sensing site on ENaC, governing self-inhibition. The aim of this first project is to demonstrate the existence of the sensing site involved in self-inhibition and to determine its physiological properties and localization. We show self-inhibition characteristics (ionic selectivity and affinity) are different from the conducting properties of the channel. Our results support thus the hypothesis that the Na+ sensing site (responsible of the transmission of the information about the extracellular Na+ concentration to the channel gating mechanism), is different from the channel conduction site. Furthermore, the site has a low and voltage-insensitive affinity for extracellular Na+ or Li+. This site appears to be located in the extracellular domain rather than in the transmembrane part of the channel protein. The next step is then to precisely localize the site on the channel. Some previous studies and preliminary results we recently obtained highlight the role of the first third of the extracellular loop of the α and γ subunits of the channel in self-inhibition. The second project originates in the limitation of the classical two-electrode voltageclamp system classically used to study ion channels expressed in Xenopus /aevis oocytes, in particular limitations related to the slow solution exchange time. In addition, this technique undergoes several drawbacks (delicate manipulations, time consumption volumes). Several improved systems have been built up, but none corrected all these detriments. The aim of this second study is thus to develop a system for electrophysiological study on oocytes featuring an easy and reduced cell handling, small necessary perfusion volumes and fast fluidic exchange. This last feature establishes the link with the first project, as it should enable to improve the kinetics analysis of self-inhibition. A PDMS chip-based microsystem has been elaborated. Its electrophysiological measurement abilities have been tested using oocytes expressing ENaC. Similar measurements (IV curves of benzamil-sensitive currents, benzamil dose-response curves) have been obtained with this system, compared to the traditional one. The solution exchange time has been estimated at N20 ms and effective exchange times (on inward currents) have been determined as 8 times faster with the novel system compared to the classical one. Finally, self-inhibition has been studied and it appears its kinetics is 3 times faster and its amplitude 10 to 20 % higher than what has been previously estimated with the traditional system. The novel integrated microsystem appears therefore to be convenient for electrophysiological measurement on Xenopus oocytes, and displays features suitable for the study of fast kinetics phenomenon, but also high throughput screening applications. Résumé destiné large public : Le corps humain est composé d'organes, eux-mêmes constitués d'un très grand nombre de cellules. Chaque cellule possède une paroi appelée membrane cellulaire qui sépare l'intérieur de cette cellule (milieu intracellulaire) du liquide (milieu extracellulaire) dans lequel elle baigne. Le maintien de la composition stable de ce milieu extracellulaire est essentiel pour la survie des cellules et donc de l'organisme. Le sodium est un des composants majeurs du milieu extracellulaire, sa quantité dans celui-ci doit être particulièrement contrôlée. Le sodium joue en effet un rôle important : il conditionne le volume de ce liquide extracellulaire, donc, par la même, du sang. Ainsi, une grande quantité de sodium présente dans ce milieu va de paire avec une augmentation du volume sanguin, ce qui conduit l'organisme à souffrir d'hypertension. On se rend donc compte qu'il est très important de contrôler la quantité de sodium présente dans les différents liquides de l'organisme. Les apports de sodium dans l'organisme se font par l'alimentation, mais la quantité de sodium présente dans le liquide extracellulaire est contrôlée de manière très précise par le rein. Au niveau de cet organe, on appelle urine primaire le liquide résultant de la filtration du sang. Elle contient de nombreuses substances, des petites molécules, dont l'organisme a besoin (sodium, glucose...), qui sont ensuite récupérées dans l'organe. A la sortie du rein, l'urine finale ne contient plus que l'excédent de ces substances, ainsi que des déchets à éliminer. La récupération du sodium est plus ou moins importante, en fonction des ajustements à apporter à la quantité présente dans le liquide extracellulaire. Elle a lieu grâce à la présence de protéines, dans les membranes des cellules du rein, capables de le transporter et de le faire transiter de l'urine primaire vers le liquide extracellulaire, qui assurera ensuite sa distribution dans l'ensemble de l'organisme. Parmi ces protéines « transporteurs de sodium », nous nous intéressons à une protéine en particulier, appelée ENaC. Il a été montré qu'elle jouait un rôle important dans cette récupération de sodium, elle est en effet impliquée dans des maladies génétiques conduisant à l'hypo- ou à l'hypertension. De précédents travaux ont montré que lorsque le sodium est présent en faible quantité dans l'urine primaire, cette protéine permet d'en récupérer une très grande partie. A l'inverse, lorsque cette quantité de sodium dans l'urine primaire est importante, sa récupération par le biais d'ENaC est réduite. On parle alors d'autorégulation : la protéine elle-même est capable d'adapter son activité de transport en fonction des conditions. Ce phénomène d'autorégulation constitue a priori un mécanisme préventif visant à éviter une trop grande récupération de sodium, limitant ainsi les risques d'hypertension. La première partie de ce travail de thèse a ainsi consisté à clarifier le mécanisme d'autorégulation de la protéine ENaC. Ce phénomène se caractérise en particulier par sa grande vitesse, ce qui le rend difficile à étudier par les méthodes traditionnelles. Nous avons donc, dans une deuxième partie, développé un nouveau système permettant de mieux décrire et analyser cette « autorégulation » d'ENaC. Ce second projet a été mené en collaboration avec l'équipe de Martin Gijs de l'EPFL.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche sur les jeux d'argent et de hasard au sein de la population des jeunes résidents Suisses avait trois objectifs. Pour avoir des données de base, nous nous sommes d'une part intéressés à la prévalence de ce comportement et, basé sur des critères de fréquence, avons mis en évidence une population plus à risque de subir des conséquences néfastes du jeu;à savoir ceux qui jouent au minimum une fois par semaine. Le deuxième objectif était de déterminer s'il existait une association entre la fréquence du jeu et 1) l'utilisation de substances, 2) une mauvaise santé mentale et/ou 3) un faible support social, comme cela a été décrit dans la littérature pour les joueurs pathologiques. Finalement, pour savoir si les joueurs fréquents étaient «fixés» sur un seul type de jeu ou au contraire jouaient de manière non-sélective, nous avons effectué la corrélation entre la fréquence de jeu et le nombre de jeux différents dans lesquels les jeunes étaient impliqués.Pour ces analyses, nous avons utilisé la base de données de l'Enquête Suisse sur la Santé 2007, une étude transversale interrogeant des résidents suisses âgés de 15 ans ou plus. Cette enquête a été menée en deux étapes: 1) un questionnaire téléphonique (taux de réponse: 66.3%) puis 2) un questionnaire écrit (taux de réponse: 80.5% de ceux qui ont répondu à l'interview téléphonique). En tenant compte de la pondération pour l'échantillon de participants ayant répondu aux deux types d'interviews, nous avons considéré uniquement les personnes âgées de 15 à 24 ans. Au total 1116 (582 hommes) participants ont été retenus pour notre étude.Pour répondre au second objectif, nous avons comparé trois groupes. Les non-joueurs (NJ, n=577), les joueurs occasionnels (JO, n=388) et les joueurs fréquents (JF, n=151) ont été étudiés d'abord grâce à des analyses bivariées, puis à une régression multinomiale permettant de tenir compte des facteurs confondants. La sélection des variables pour la régression a été basée sur une méthode «bootstrap» permettant de produire des résultats représentatifs de la population entière et pas uniquement de l'échantillon analysé.Nous avons procédé de manière similaire pour répondre à la troisième question de recherche, mais en comparant uniquement les joueurs occasionnels et les joueurs fréquents.Les résultats ont mis en évidence que 48.3% des jeunes résidents suisses étaient impliqués dans au moins un type de jeu dans l'année précédente. Par ailleurs, 13.5% (n=151) des 15 à 24 ans jouaient au minimum une fois par semaine.Au niveau bivarié, la fréquence de jeu était associée à des facteurs sociodémographiques comme le sexe masculin, l'âge (les JO étant les plus âgés), et le revenu personnel. La fréquence de jeu était également significativement associée au fait de fumer du tabac quotidiennement, d'être actuellement fumeur de cannabis et d'avoir une consommation d'alcool à risque (beuveries). La mauvaise santé mentale (épisode de dépression majeure ou détresse psychologique) et le faible support relationnel (personne de confiance dans l'entourage ou activités de loisirs) n'étaient pas associés à la fréquence de jeu de manière significative, bien qu'une nette tendance en faveur des NJ ait pu être mise en évidence. Au niveau multivarié, les JO et JF étaient plus âgés, plus souvent de sexe masculin et habitaient plus souvent en Suisse romande que les NJ. Les JO étaient plus à risque que les NJ de se soumettre à des beuveries de manière occasionnelle et les JF étaient plus à risque que les NJ d'être des fumeurs de tabac quotidiens.En comparant les JO et les JF, nous avons obtenu une correlation élevée (r=0.85;p<0.0001) entre la fréquence de jeu et le nombre de jeux dans lesquels les jeunes étaient impliqués. Ceci indiquant que les JF ne semblent pas très sélectifs quant au type de jeu auquel ils jouent.Dans la mesure où le jeu est un comportement très prévalent au sein de la population des jeunes résidents suisses, il doit probablement être vu comme une conduite faisant partie des comportements exploratoires de l'adolescence. Néanmoins, au vu des comportements à risque qui y sont associés, la question du jeu devrait être soulevée par les médecins s'occupant de jeunes adultes à des fins de prévention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Copper is an important trace element and micronutrient for living organisms as it is the cofactor of several enzymes involved in diverse biological redox processes such as aerobic respiration, denitrification and photosynthesis. Despite its importance, copper may be poorly bioavailable in soils and aquatic environments, as well as in the human body, especially at physiological or alkaline pH. In this work, we have investigated the strategies that the versatile bacterium and opportunistic pathogen Pseudomonas aeruginosa has evolved to face and overcome copper limitation. The global response of the P. aeruginosa to copper limitation was assessed under aerobic conditions. Numerous iron uptake functions (including the siderophores pyoverdine and pyochelin) were down-regulated whereas expression of cioAB (encoding an alternative, copper-independent, cyanide-resistant ubiquinol oxidase) was up-regulated. Wild type P. aeruginosa was able to grow aerobically in a defined glucose medium depleted of copper by a copper chelator, whereas a cioAB mutant did not grow. Thus, P. aeruginosa relies on the CioAB enzyme to cope with severe copper deprivation. A quadruple cyo cco1 cco2 cox mutant, which was deleted for all known heme-copper terminal oxidases of P. aeruginosa, grew aerobically, albeit more slowly than did the wild type, indicating that the CioAB enzyme is capable of energy conservation. However, the expression of a cioA'-'lacZ fusion was less dependent on the copper status in the quadruple mutant than in the wild type, suggesting that copper availability might affect cioAB expression indirectly, via the function of the heme-copper oxidases. These results suggest that the CioAB enzyme can be used as a by-pass strategy to overcome severe copper limitation and perform aerobic respiration even if virtually no copper is available. The PA0114 gene, which encodes a protein of the SCOT/SenC family, was found to be important for copper acquisition and aerobic respiration in low copper conditions. A PA0114 (sent) mutant grew poorly in low copper media and had low terminal oxidase activity with TMPD (N,N,N',N'-tetramethyl-p-phenylenediamine), but expressed the CioAB enzyme at elevated levels. Addition of copper reversed these phenotypes, suggesting that periplasmic copper capture by the SenC protein is another strategy that helps P. aeruginosa to adapt to copper deprivation. RESUME Le cuivre est un micronutriment important pour les organismes vivants. Il représente le cofacteur de plusieurs enzymes impliquées dans une multitude de processus biologiques tels que la respiration aérobie, la dénitrification et la photosynthèse. Malgré son importance, le cuivre peut être peu disponible dans les sols, les environnements aquatiques et le corps humain, spécialement à pH physiologique ou alcalin. Dans ce travail nous avons étudié les stratégies développées par la bactérie pathogène opportuniste Pseudomonas aeruginosa PAO1 afm de faire face et de surmonter le manque de cuivre. La réponse globale de P. aeruginosa à la carence de cuivre a été analysée dans des conditions aérobie. Les résultats obtenus ont montré que plusieurs gènes impliqués dans l'acquisition du fer, tels que les gènes codant pour les sidérophores (pyoverdine et pyochéline), étaient réprimés, tandis que l'expression de l'opéron cioAB, codant pour l'oxydase terminale insensible au cyanure (CIO), était augmentée. La souche sauvage P. aeruginosa est capable de croître dans un milieu où la concentration en cuivre est limitée, due à la présence d'un chélateur spéciftque de cuivre, tandis que le mutant cioAB ne croît pas dans ces conditions. Nous avons conclu que P. aeruginosa nécessite l'oxydase terminale CIO pour faire face à la carence en cuivre. Un quadruple mutant affecté dans toutes les oxydases dépendantes du cuivre (cyo ccol cco2 cox) et appartenant aux oxydases de type hème-cuivre, peut croître en aérobie, néanmoins plus lentement que la souche sauvage, ce qui montre que l'enzyme CIO est capable de conserver l'énergie. L'expression de la fusion rapportrice cioA'-'IacZ chez le quadruple mutant est moins dépendante de la disponibilité de cuivre que chez la souche sauvage. Ces résultats suggèrent que la disponibilité de cuivre influence l'expression de cioAB d'une façon indirecte, par le biais des oxydases terminales de type héme-cuivre. Il est donc possible qu'en cas de carence de cuivre, P. aeruginosa utilise l'enzyme CIO comme stratégie afin de surmonter ce manque et de réaliser la respiration aérobie. Nous avons démontré que le gène PA0114, codant pour une protéine appartenant à la famille SCO1/SenC, est important dans l'acquisition et dans la respiration aérobie dans des environnements où le cuivre est présent en faible concentration. En ces conditions, la croissance du mutant senC est faible; de plus, l'activité des oxydases terminales en présence du donneur d'électrons TMPD (N,N,N,N'-tetraméthyl-p-phénylenediamine) est basse. Toutefois, l'addition de cuivre au milieu de culture permet de restaurer le phénotype du type sauvage. Ces résultats montrent que la protéine SenC est capable d'acquérir le cuivre et représente donc une autre stratégie chez P. aeruginosa pour s'adapter à un manque de cuivre.