999 resultados para [JEL:C1] Mathématiques et méthodes quantitatives - Économétrie et méthodes statistiques
Resumo:
Summary : International comparisons in the area of victimization, particularly in the field of violence against women, are fraught with methodological problems that previous research has not systematically addressed, and whose answer does not seem to be agreed up~n. For obvious logistic and financial reasons, international studies on violence against women (i.e. studies that administer the same instrument in different countries). are seldom; therefore, researchers are bound to resort to secondary comparisons. Many studies simply juxtapose their results to the ones of previous wòrk or to findings obtained in different contexts, in order to offer an allegedly comparative perspective to their conclusions. If, most of the time, researchers indicate the methodological limitations of a direct comparison, it is not rare that these do not result in concrete methodological controls. Yet, many studies have shown the influence of surveys methodological parameters on findings, listing recommendations fora «best practice» of research. Although, over the past decades, violence against women surveys have become more and more similar -tending towards a sort of uniformization that could be interpreted as a passive consensus -these instruments retain more or less subtle differences that are still susceptible to influence the validity of a comparison. Yet, only a small number of studies have directly worked on the comparability of violence against women data, striving to control the methodological parameters of the surveys in order to guarantee the validity of their comparisons. The goal of this work is to compare data from two national surveys on violence against women: the Swiss component of the International Violence Against Women Survey [CH-IVAWS] and the National Violence Against Women Survey [NVAWS] administered in the United States. The choice of these studies certainly ensues from the author's affiliations; however, it is far from being trivial. Indeed, the criminological field currently endows American and Anglo-Saxon literature with a predominant space, compelling researchers from other countries to almost do the splits to interpret their results in the light of previous work or to develop effective interventions in their own context. Turning to hypotheses or concepts developed in a specific framework inevitably raises the issue of their applicability to another context, i.e. the Swiss context, if not at least European. This problematic then takes on an interest that goes beyond the particular topic of violence against women, adding to its relevance. This work articulates around three axes. First, it shows the way survey characteristics influence estimates. The comparability of the nature of the CH-IVAWS and NVAWS, their sampling design and the characteristics of their administration are discussed. The definitions used, the operationalization of variables based on comparable items, the control of reference periods, as well as the nature of the victim-offender relationship are included among controlled factors. This study establishes content validity within and across studies, presenting a systematic process destined to maximize the comparability of secondary data. Implications of the process are illustrated with the successive presentation of comparable and non-comparable operationalizations of computed variables. Measuring violence against. women in Switzerland and the United-States, this work compares the prevalence of different forms (threats, physical violence and sexual violence) and types of violence (partner and nonpartner violence). Second, it endeavors to analyze concepts of multivictimization (i.e. experiencing different forms of victimization), repeat victimization (i.e. experiencing the same form of violence more than once), and revictimization (i.e. the link between childhood and adulthood victimization) in a comparative -and comparable -approach. Third, aiming at understanding why partner violence appears higher in the United States, while victims of nonpartners are more frequent in Switzerland, as well as in other European countries, different victimization correlates are examined. This research contributes to a better understanding of the relevance of controlling methodological parameters in comparisons across studies, as it illustrates, systematically, the imposed controls and their implications on quantitative data. Moreover, it details how ignoring these parameters might lead to erroneous conclusions, statistically as well as theoretically. The conclusion of the study puts into a wider perspective the discussion of differences and similarities of violence against women in Switzerland and the United States, and integrates recommendations as to the relevance and validity of international comparisons, whatever the'field they are conducted in. Résumé: Les comparaisons internationales dans le domaine de la victimisation, et plus particulièrement en ce qui concerne les violences envers les femmes, se caractérisent par des problèmes méthodologiques que les recherches antérieures n'ont pas systématiquement adressés, et dont la réponse ne semble pas connaître de consensus. Pour des raisons logistiques et financières évidentes, les études internationales sur les violences envers les femmes (c.-à-d. les études utilisant un même instrument dans différents pays) sont rares, aussi les chercheurs sont-ils contraints de se tourner vers des comparaisons secondaires. Beaucoup de recherches juxtaposent alors simplement leurs résultats à ceux de travaux antérieurs ou à des résultats obtenus dans d'autres contextes, afin d'offrir à leurs conclusions une perspective prétendument comparative. Si, le plus souvent, les auteurs indiquent les limites méthodologiques d'une comparaison directe, il est fréquent que ces dernières ne se traduisent pas par des contrôles méthodologiques concrets. Et pourtant, quantité de travaux ont mis en évidence l'influence des paramètres méthodologiques des enquêtes sur les résultats obtenus, érigeant des listes de recommandations pour une «meilleure pratique» de la recherche. Bien que, ces dernières décennies, les sondages sur les violences envers les femmes soient devenus de plus en plus similaires -tendant, vers une certaine uniformisation que l'on peut interpréter comme un consensus passif-, il n'en demeure pas moins que ces instruments possèdent des différences plus ou moins subtiles, mais toujours susceptibles d'influencer la validité d'une comparaison. Pourtant, seules quelques recherches ont directement travaillé sur la comparabilité des données sur les violences envers les femmes, ayant à coeur de contrôler les paramètres méthodologiques des études utilisées afin de garantir la validité de leurs comparaisons. L'objectif de ce travail est la comparaison des données de deux sondages nationaux sur les violences envers les femmes: le composant suisse de l'International Violence Against Women Survey [CHIVAWSj et le National Violence Against Women Survey [NVAWS) administré aux États-Unis. Le choix de ces deux études découle certes des affiliations de l'auteure, cependant il est loin d'être anodin. Le champ criminologique actuel confère, en effet, une place prépondérante à la littérature américaine et anglo-saxonne, contraignant ainsi les chercheurs d'autres pays à un exercice proche du grand écart pour interpréter leurs résultats à la lumière des travaux antérieurs ou développer des interventions efficaces dans leur propre contexte. Le fait de recourir à des hypothèses et des concepts développés dans un cadre spécifique pose inévitablement la question de leur applicabilité à un autre contexte, soit ici le contexte suisse, sinon du moins européen. Cette problématique revêt alors un intérêt qui dépasse la thématique spécifique des violences envers les femmes, ce qui ajoute à sa pertinence. Ce travail s'articule autour de trois axes. Premièrement, il met en évidence la manière dont les caractéristiques d'un sondage influencent les estimations qui en découlent. La comparabilité de la nature du CH-IVAWS et du NVAWS, de leur processus d'échantillonnage et des caractéristiques de leur administration est discutée. Les définitions utilisées, l'opérationnalisation des variables sur la base d'items comparables, le contrôle des périodes de référence, ainsi que la nature de la relation victime-auteur figurent également parmi les facteurs contrôlés. Ce travail établit ainsi la validité de contenu intra- et inter-études, offrant un processus systématique destiné à maximiser la comparabilité des données secondaires. Les implications de cette démarche sont illustrées avec la présentation successive d'opérationnalisations comparables et non-comparables des variables construites. Mesurant les violences envers les femmes en Suisse et aux États-Unis, ce travail compare la prévalence de plusieurs formes (menaces, violences physiques et violences sexuelles) et types de violence (violences partenaires et non-partenaires). 11 s'attache également à analyser les concepts de multivictimisation (c.-à-d. le fait de subir plusieurs formes de victimisation), victimisation répétée (c.-à.-d. le fait de subir plusieurs incidents de même forme) et revictimisation (c.-à-d. le lien entre la victimisation dans l'enfance et à l'âge adulte) dans une approche comparative - et comparable. Dans un troisième temps, cherchant à comprendre pourquoi la violence des partenaires apparaît plus fréquente aux États-Unis, tandis que les victimes de non-partenaires sont plus nombreuses en Suisse, et dans d'autres pays européens, différents facteurs associés à la victimisation sont évalués. Cette recherche participe d'une meilleure compréhension de la pertinence du contrôle des paramètres méthodologiques dans les comparaisons entre études puisqu'elle illustre, pas à pas, les contrôles imposés et leurs effets sur les données quantitatives, et surtout comment l'ignorance de ces paramètres peut conduire à des conclusions erronées, tant statistiquement que théoriquement. La conclusion replace, dans un contexte plus large, la discussion des différences et des similitudes observées quant à la prévalence des violences envers les femmes en Suisse et aux États-Unis, et intègre des recommandations quant à la pertinence et à la validité des comparaisons internationales, cela quel que soit le domaine considéré.
Resumo:
Objectifs: Comparaison des performances en qualité d'image des deux types de systèmes CR. Matériels et méthodes: Les performances ont été mesurées au moyen de la fonction de transfert de modulation (FTM), du spectre de bruit, de l'efficacité quantique de détection (DQE),le seuil de détection du contraste en épaisseur d'or et la dose glandulaire moyenne. Les systèmes CR à aiguilles Agfa HM5.0 et Carestream SNP-M1 ont étécomparés aux systèmes à poudre Agfa MM3.0, Fuji ProfectCS et Carestream EHR-M3. Résultats: La FTM à 5mm-1 de Agfa HM5,0 et Carestream SNP-M1 est 0,21 et 0,27, et entre 0,14 et 0,16 pour les systèmes à poudre. Un DQE maximal de 0,51 et 0,5 a étéobtenu pour Agfa HM5,0 et Carestream SNP-M1, et 0,35, 0,50 et 0,34 pour Agfa MM3,0, Fuji Profect et Carestream EHR-M3. Des valeurs de DQE à 5mm-1 de0,18 et 0,13 ont été obtenues pour Agfa HM5,0 et Carestream SNP-M1, et entre 0,04 et 0,065 pour les systèmes à poudre. Les seuils de détection du contrastede Agfa HM5,0 et Carestream SNP-M1 étaient 1,33im et 1,29im, et 1,45im et 1,63im pour Agfa MM3,0 et Fuji Profect. Conclusion: Les systèmes à aiguilles offrent des meilleures FTM et DQE et un seuil de visibilité du contraste plus bas que les systèmes à poudre .
Resumo:
Cet article propose un retour méthodologique sur une enquête de terrain parmi les policiers de la ville de Lausanne (Suisse). En plus des observations conduites, des photographies ont été prises durant les patrouilles. Les images produites par le chercheur ont alors fait l'objet d'une présentation systématique aux enquêtés. Cet échange in situ autour des photographies a ouvert des pistes pour documenter empiriquement l'organisation professionnelle des regards, ainsi que les « compétences visuelles » à l'oeuvre dans le contexte du travail policier.
Resumo:
Cette recherche s'applique aux témoins glaciaires des Chablais dans quatre de leurs dimensions : géopatrimoine, connaissance objective, inventaire de géosites et valorisation. Elle est organisée sur le canevas d'un processus de patrimonialisation auquel elle participe et qu'elle interroge à la fois. En 2009, débutait le projet 123 Chablais, pour une durée de quatre ans. Il concernait l'ensemble du territoire chablaisien, réparti sur deux pays (France et Suisse) et trois entités administratives (département de la Haute-Savoie, cantons de Vaud et du Valais). Ce projet, élaboré dans le cadre du programme Interreg IV France-Suisse, avait pour but de dynamiser le développement économique local en s'appuyant sur les patrimoines régionaux. Le géopatrimoine, identifié comme une de ces ressources, faisait donc l'objet de plusieurs actions, dont cette recherche. En parallèle, le Chablais haut-savoyard préparait sa candidature pour rejoindre l'European Geopark Network (EGN). Son intégration, effective dès 2012, a fait de ce territoire le cinquième géoparc français du réseau. Le Geopark du Chablais fonde son identité géologique sur l'eau et la glace, deux thématiques intimement liées aux témoins glaciaires. Dans ce contexte d'intérêt pour le géopatrimoine local et en particulier pour le patrimoine glaciaire, plusieurs missions ont été assignées à cette recherche qui devait à la fois améliorer la connaissance objective des témoins glaciaires, inventorier les géosites glaciaires et valoriser le patrimoine glaciaire. Le premier objectif de ce travail était d'acquérir une vision synthétique des témoins glaciaires. Il a nécessité une étape de synthèse bibliographique ainsi que sa spatialisation, afin d'identifier les lacunes de connaissance et la façon dont ce travail pouvait contribuer à les combler. Sur cette base, plusieurs méthodes ont été mises en oeuvre : cartographie géomorphologique, reconstitution des lignes d'équilibre glaciaires et datations de blocs erratiques à l'aide des isotopes cosmogéniques produits in situ. Les cartes géomorphologiques ont été élaborées en particulier dans les cirques et vallons glaciaires. Les datations cosmogéniques ont été concentrées sur deux stades du glacier du Rhône : le Last Local Glacial Maximum (LLGM) et le stade de Monthey. Au terme de cette étape, les spécificités du patrimoine glaciaire régional se sont révélées être 1) une grande diversité de formes et des liens étroits avec différents autres processus géomorphologiques ; 2) une appartenance des témoins glaciaires à dix grandes étapes de la déglaciation du bassin lémanique. Le second objectif était centré sur le processus d'inventaire des géosites glaciaires. Nous avons mis l'accent sur la sélection du géopatrimoine en développant une approche basée sur deux axes (temps et espace) identifiés dans le volet précédent et avons ainsi réalisé un inventaire à thèmes, composé de 32 géosites. La structure de l'inventaire a également été explorée de façon à intégrer des critères d'usage de ces géosites. Cette démarche, soutenue par une réflexion sur les valeurs attribuées au géopatrimoine et sur la façon d'évaluer ces valeurs, nous a permis de mettre en évidence le point de vue anthropo - et scientifico - centré qui prévaut nettement dans la recherche européenne sur le géopatrimoine. L'analyse des résultats de l'inventaire a fait apparaître quelques caractéristiques du patrimoine glaciaire chablaisien, discret, diversifié, et comportant deux spécificités exploitables dans le cadre d'une médiation scientifique : son statut de « berceau de la théorie glaciaire » et ses liens étroits avec des activités de la vie quotidienne, en tant que matière première, support de loisir ou facteur de risque. Cette recherche a débouché sur l'élaboration d'une exposition itinérante sur le patrimoine glaciaire des Chablais. Ce produit de valorisation géotouristique a été conçu pour sensibiliser la population locale à l'impact des glaciers sur son territoire. Il présente une série de sept cartes de stades glaciaires, encadrées par les deux mêmes thématiques, l'histoire de la connaissance glaciaire d'une part, les témoins glaciaires et la société, d'autre part. -- This research focuses on glacial witnesses in the Chablais area according to four dimensions : geoheritage, objective knowledge, inventory and promotion of geosites. It is organized on the model of an heritage's process which it participates and that it questions both. In 2009, the project 123 Chablais started for a period of four years. It covered the entire chablaisien territory spread over two countries and three administrative entities (département of Haute-Savoie, canton of Vaud, canton of Valais). This project, developed in the framework of the Interreg IV France-Switzerland program, aimed to boost the local development through regional heritage. The geoheritage identified as one of these resources, was therefore the subject of several actions, including this research. In parallel, the French Chablais was preparing its application to join the European Geopark Network (EGN). Its integration, effective since 2012, made of this area the fifth French Geopark of the network. The Chablais Geopark geological identity was based on water and ice, two themes closely linked to the glacial witnesses. In this context of interest for the regional geoheritage and especially for the glacial heritage, several missions have been assigned to this research which should improve objective knowledge of glacial witnesses, inventory and assess glacial geosites. The objective knowledge's component was to acquire a synthetic vision of the glacial witnesses. It required a first bibliography synthesis step in order to identify gaps in knowledge and how this work could help to fill them. On this basis, several methods have been implemented: geomorphological mapping, reconstruction of the equilibrium-line altitude and dating of glacial erratic blocks using cosmogenic isotopes produced in situ. Geomorphological maps have been developed especially in glacial cirques and valleys. Cosmogenic datings were concentrated on two stages of the Rhone glacier: the Last Local Glacial Maximum (LLGM) and « the stage of Monthey ». After this step, the specificities of the regional glacial heritage have emerged to us as 1) a wide variety of forms and links to various other geomorphological processes; 2) belonging of glacial witnesses to ten major glacial stages of Léman Lake's deglaciation. In the inventory of glacial geosites component we focused on the selection of geoheritage. We developed an approach based on two axes (time and space) identified in the preceding components. We obtained a thematic inventory, consisting of 32 geosites. The structure of the inventory was also explored in the aim to integrate use criteria of geosites. This approach, supported by a thought on the values attributed to the geoheritage and how to assess these values allowed us to highlight the point of view much anthropological - and scientific -centered prevailing in the European research on geoheritage. The analysis of the inventory's results revealed some characteristics of chablaisien glacial heritage, discrete, diverse, and with two features exploitable in the context of a scientific mediation: its status as « cradle of the glacial theory » and its close links with activities of daily life, as raw material, leisure support and risk factor. This research leads to the development of a traveling exhibition on the glacial heritage of the Chablais area. It presents a series of seven glacial stage's cards, framed by the two themes mentioned above: « history of glacial knowledge » and « glacial witnesses and society ».
Resumo:
L'intubation endotrachéale reste la méthode de premier choix pour assurer la ventilation et la protection des voies aériennes supérieures. Ce geste fait partie intégrante du savoir-faire des équipes d'anesthésiologie, dans un contexte de chirurgie élective, de réanimation ou de soins intensifs. En règle générale, l'intubation s'avère rapide, sûre et efficace. Un apprentissage et une pratique régulière sont néanmoins nécessaires pour acquérir et maintenir les habilités requises pour gérer les situations standards et d'urgences usuelles, et pour minimiser le risque de complication, notamment iatrogènes. De nombreuses techniques ont été conçues pour faciliter l'intubation ou palier aux éventuelles difficultés. De nouveaux outils ne cessent d'être mis au point. La place qu'ils seront amenés à prendre dans la pratique quotidienne reste à définir. Ils font néanmoins désormais partie du paysage anesthésique. Il existe un certain nombre de conditions morphologiques ou pathologiques qui peuvent entraver l'intubation et risquer de converger pour aboutir à une situation d'intubation difficile. Afin de minimiser les risques de prise en charge des voies aériennes, il importe de détecter ces conditions et de pouvoir s'y adapter, notamment par le choix d'un matériel et d'un protocole adaptés. Les voies aériennes difficiles représentent en ce sens une interaction complexe entre les facteurs propres au patient, le contexte clinique et les capacités de l'anesthésiste. Les intubations trachéales difficiles restent une source majeure de morbidité et de mortalité dans la pratique clinique, particulièrement lorsqu'elles ne sont pas anticipées et dans les situations d'urgence. Même si la pharmacologie, les méthodes de travail et les moyens techniques ont évolués et garantissent une meilleure gestion du risque et une meilleure prise en charge des situations complexes, la gestion des voies aériennes et la prédiction des voies aériennes difficiles restent un défi central de la prise en charge anesthésiologique. La gestion des voies aériennes difficiles reste donc une composante importante de la pratique anesthésique, de part l'incidence d'événements potentiellement graves pour le patient qu'elle génère. La nécessité d'évaluer le risque d'ID est désormais ancrée dans les préceptes de la prise en charge anesthésique. Lors de l'évaluation préopératoire, le dépistage des facteurs de risque d'ID doit être systématique et correctement documenté. L'anticipation d'un risque trop élevé ou d'une situation potentiellement compliquée permet d'adapter sa planification, de compléter les examens préopératoires, d'orienter le choix de la technique et de se préparer à pouvoir répondre de manière rapide et efficace à une situation urgente. Même si les situations d'ID ne pourront probablement jamais êtres toutes anticipées, il importe donc de définir les facteurs de risque significatifs et de les intégrer dans la prise en charge des voies aériennes. L'accent a notamment été mis sur la recherche de critères prédictifs efficaces. Ces stratégies ont toutes pour but de stratifier le risque de difficultés intubatoires afin de minimiser l'incidence d'événements délétères, par une préparation optimale et la prise en charge adéquate des situations difficiles. L'absence de recommandations internationales standardisées d'identification et de prise en charge de l'ID sont principalement liées à l'absence de définitions standardisées, au manque de critères suffisamment sensibles et spécifiques, au caractère subjectif de certains critères cliniques utilisés et à la kyrielle de techniques et d'outils alternatifs à l'intubation orotrachéale laryngoscopique standard à disposition. Aucune anomalie anatomo-pathologique usuelle ni aucune de leurs combinaisons n'est strictement associée à l'intubation difficile. Certains examens sont en outre difficilement justifiables pour une consultation pré-anesthésique usuelle. Dans le cadre de cette problématique, l'objectif fondamental de ce travail est de participer à l'amélioration la prédictibilité de l'intubation difficile dans la pratique anesthésique. L'étude portera sur l'analyse rétrospective de dossiers anesthésiques de 3600 patients, adultes et pédiatriques, pris en charge par le service d'anesthésiologie dans le secteur hors bloc opératoire au CHUV, entre le 1er janvier et le 31 décembre 2010. L'analyse des résultats devrait permettre de déterminer l'incidence et le taux de prédictibilité de l'intubation difficile prévue et non prévue, ainsi que de citer les techniques actuelles de prise en charge dans une institution hospitalière universitaire telle que le CHUV. Un analyse critique des stratégies de prédiction employées, de leur mise en pratique et des techniques de travail privilégiées dans la prise en charge des situations d'intubations difficiles pourrait permettre l'élaboration de pistes réflexives dans le but de les optimiser et d'améliorer la prise en charge du patient et la gestion du risque anesthésique. Cette étude pourrait déboucher sur la proposition d'un score simple de prédiction de l'intubation difficile à intégrer sur la feuille de consultation pré- anesthésique. Le but est est d'améliorer les recommandations de prise en charge préopératoire et d'améliorer la transmission interprofessionnelle des informations liées aux voies aériennes, afin de minimiser le risque d'intubation difficile non prévue ainsi que l'incidence et la sévérité des complications liées aux ID.
Resumo:
Résumé : La première partie de ce travail de thèse est consacrée au canal à sodium épithélial (ENaC), l'élément clé du transport transépithélial de Na+ dans le néphron distal, le colon et les voies aériennes. Ce canal est impliqué dans certaines formes génétiques d'hypo- et d'hypertension (PHA I, syndrome de Liddle), mais aussi, indirectement, dans la mucoviscidose. La réabsorption transépithéliale de Na+ est principalement régulée par des hormones (aldostérone, vasopressine), mais aussi directement par le Na+, via deux phénomènes distincts, la « feedback inhibition » et la « self-inhibition » (SI). Ce second phénomène est dépendant de la concentration de Na+ extracellulaire, et montre une cinétique rapide (constante de temps d'environ 3 s). Son rôle physiologique serait d'assurer l'homogénéité de la réabsorption de Na+ et d'empêcher que celle-ci soit excessive lorsque les concentrations de Na+ sont élevées. Différents éléments appuient l'hypothèse de la présence d'un site de détection de la concentration du Na+ extracellulaire sur ENaC, gouvernant la SI. L'objectif de ce premier projet est de démontrer l'existence du site de détection impliqué dans la SI et de déterminer ses propriétés physiologiques et sa localisation. Nous avons montré que les caractéristiques de la SI (en termes de sélectivité et affinité ionique) sont différentes des propriétés de conduction du canal. Ainsi, nos résultats confirment l'hypothèse de l'existence d'un site de détection du Na+ (responsable de la transmission de l'information au mécanisme de contrôle de l'ouverture du canal), différent du site de conduction. Par ailleurs, ce site présente une affinité basse et indépendante du voltage pour le Na+ et le Li+ extracellulaires. Le site semble donc être localisé dans le domaine extracellulaire, plutôt que transmembranaire, de la protéine. L'étape suivante consiste alors à localiser précisément le site sur le canal. Des études précédentes, ainsi que des résultats préliminaires récemment obtenus, mettent en avant le rôle dans la self-inhibition du premiers tiers des boucles extracellulaires des sous-unités α et γ du canal. Le second projet tire son origine des limitations de la méthode classique pour l'étude des canaux ioniques, après expression dans les ovocytes de Xenopus laevis, par la méthode du voltage-clamp à deux électrodes, en particulier les limitations dues à la lenteur des échanges de solutions. En outre, cette méthode souffre de nombreux désavantages (manipulations délicates et peu rapides, grands volumes de solution requis). Plusieurs systèmes améliorés ont été élaborés, mais aucun ne corrige tous les désavantages de la méthode classique Ainsi, l'objectif ici est le développement d'un système, pour l'étude électrophysiologique sur ovocytes, présentant les caractéristiques suivantes : manipulation des cellules facilitée et réduite, volumes de solution de perfusion faibles et vitesse rapide d'échange de la perfusion. Un microsystème intégré sur une puce a été élaboré. Ces capacités de mesure ont été testées en utilisant des ovocytes exprimant ENaC. Des résultats similaires (courbes IV, courbes dose-réponse au benzamil) à ceux obtenus avec le système traditionnel ont été enregistrés avec le microsystème. Le temps d'échange de solution a été estimé à ~20 ms et des temps effectifs de changement ont été déterminés comme étant 8 fois plus court avec le nouveau système comparé au classique. Finalement, la SI a été étudiée et il apparaît que sa cinétique est 3 fois plus rapide que ce qui a été estimé précédemment avec le système traditionnel et son amplitude de 10 à 20 % plus importante. Le nouveau microsystème intégré apparaît donc comme adapté à la mesure électrophysiologique sur ovocytes de Xenopus, et possèdent des caractéristiques appropriées à l'étude de phénomènes à cinétique rapide, mais aussi à des applications de type « high throughput screening ». Summary : The first part of the thesis is related to the Epithelial Sodium Channel (ENaC), which is a key component of the transepithelial Na+ transport in the distal nephron, colon and airways. This channel is involved in hypo- and hypertensive syndrome (PHA I, Liddle syndrome), but also indirectly in cystic fibrosis. The transepithelial reabsorption of Na+ is mainly regulated by hormones (aldosterone, vasopressin), but also directly by Na+ itself, via two distinct phenomena, feedback inhibition and self-inhibition. This latter phenomenon is dependant on the extracellular Na+ concentration and has rapid kinetics (time constant of about 3 s). Its physiological role would be to prevent excessive Na+ reabsorption and ensure this reabsorption is homogenous. Several pieces of evidence enable to propose the hypothesis of an extracellular Na+ sensing site on ENaC, governing self-inhibition. The aim of this first project is to demonstrate the existence of the sensing site involved in self-inhibition and to determine its physiological properties and localization. We show self-inhibition characteristics (ionic selectivity and affinity) are different from the conducting properties of the channel. Our results support thus the hypothesis that the Na+ sensing site (responsible of the transmission of the information about the extracellular Na+ concentration to the channel gating mechanism), is different from the channel conduction site. Furthermore, the site has a low and voltage-insensitive affinity for extracellular Na+ or Li+. This site appears to be located in the extracellular domain rather than in the transmembrane part of the channel protein. The next step is then to precisely localize the site on the channel. Some previous studies and preliminary results we recently obtained highlight the role of the first third of the extracellular loop of the α and γ subunits of the channel in self-inhibition. The second project originates in the limitation of the classical two-electrode voltageclamp system classically used to study ion channels expressed in Xenopus /aevis oocytes, in particular limitations related to the slow solution exchange time. In addition, this technique undergoes several drawbacks (delicate manipulations, time consumption volumes). Several improved systems have been built up, but none corrected all these detriments. The aim of this second study is thus to develop a system for electrophysiological study on oocytes featuring an easy and reduced cell handling, small necessary perfusion volumes and fast fluidic exchange. This last feature establishes the link with the first project, as it should enable to improve the kinetics analysis of self-inhibition. A PDMS chip-based microsystem has been elaborated. Its electrophysiological measurement abilities have been tested using oocytes expressing ENaC. Similar measurements (IV curves of benzamil-sensitive currents, benzamil dose-response curves) have been obtained with this system, compared to the traditional one. The solution exchange time has been estimated at N20 ms and effective exchange times (on inward currents) have been determined as 8 times faster with the novel system compared to the classical one. Finally, self-inhibition has been studied and it appears its kinetics is 3 times faster and its amplitude 10 to 20 % higher than what has been previously estimated with the traditional system. The novel integrated microsystem appears therefore to be convenient for electrophysiological measurement on Xenopus oocytes, and displays features suitable for the study of fast kinetics phenomenon, but also high throughput screening applications. Résumé destiné large public : Le corps humain est composé d'organes, eux-mêmes constitués d'un très grand nombre de cellules. Chaque cellule possède une paroi appelée membrane cellulaire qui sépare l'intérieur de cette cellule (milieu intracellulaire) du liquide (milieu extracellulaire) dans lequel elle baigne. Le maintien de la composition stable de ce milieu extracellulaire est essentiel pour la survie des cellules et donc de l'organisme. Le sodium est un des composants majeurs du milieu extracellulaire, sa quantité dans celui-ci doit être particulièrement contrôlée. Le sodium joue en effet un rôle important : il conditionne le volume de ce liquide extracellulaire, donc, par la même, du sang. Ainsi, une grande quantité de sodium présente dans ce milieu va de paire avec une augmentation du volume sanguin, ce qui conduit l'organisme à souffrir d'hypertension. On se rend donc compte qu'il est très important de contrôler la quantité de sodium présente dans les différents liquides de l'organisme. Les apports de sodium dans l'organisme se font par l'alimentation, mais la quantité de sodium présente dans le liquide extracellulaire est contrôlée de manière très précise par le rein. Au niveau de cet organe, on appelle urine primaire le liquide résultant de la filtration du sang. Elle contient de nombreuses substances, des petites molécules, dont l'organisme a besoin (sodium, glucose...), qui sont ensuite récupérées dans l'organe. A la sortie du rein, l'urine finale ne contient plus que l'excédent de ces substances, ainsi que des déchets à éliminer. La récupération du sodium est plus ou moins importante, en fonction des ajustements à apporter à la quantité présente dans le liquide extracellulaire. Elle a lieu grâce à la présence de protéines, dans les membranes des cellules du rein, capables de le transporter et de le faire transiter de l'urine primaire vers le liquide extracellulaire, qui assurera ensuite sa distribution dans l'ensemble de l'organisme. Parmi ces protéines « transporteurs de sodium », nous nous intéressons à une protéine en particulier, appelée ENaC. Il a été montré qu'elle jouait un rôle important dans cette récupération de sodium, elle est en effet impliquée dans des maladies génétiques conduisant à l'hypo- ou à l'hypertension. De précédents travaux ont montré que lorsque le sodium est présent en faible quantité dans l'urine primaire, cette protéine permet d'en récupérer une très grande partie. A l'inverse, lorsque cette quantité de sodium dans l'urine primaire est importante, sa récupération par le biais d'ENaC est réduite. On parle alors d'autorégulation : la protéine elle-même est capable d'adapter son activité de transport en fonction des conditions. Ce phénomène d'autorégulation constitue a priori un mécanisme préventif visant à éviter une trop grande récupération de sodium, limitant ainsi les risques d'hypertension. La première partie de ce travail de thèse a ainsi consisté à clarifier le mécanisme d'autorégulation de la protéine ENaC. Ce phénomène se caractérise en particulier par sa grande vitesse, ce qui le rend difficile à étudier par les méthodes traditionnelles. Nous avons donc, dans une deuxième partie, développé un nouveau système permettant de mieux décrire et analyser cette « autorégulation » d'ENaC. Ce second projet a été mené en collaboration avec l'équipe de Martin Gijs de l'EPFL.
Resumo:
Fondements : La recherche sur l'oedème postopératoire consécutif à la chirurgie prothétique du genou est peu développée, notamment en raison de l'absence d'une méthode de mesure adaptée. Une collaboration entre physiothérapeutes et ingénieurs a permis de développer et valider une méthode de mesure innovante et facilement applicable. Les physiothérapeutes ont identifié un besoin clinique, les ingénieurs ont apporté leur savoir technologique, et l'équipe a conjointement élaboré le protocole de mesure et effectué l'étude de validation. Introduction : La bioimpédance est fréquemment utilisée pour évaluer l'oedème par l'analyse d'un signal électrique passant au travers du corps, en extrapolant la résistance théorique à une fréquence égale à zéro (R0). La mesure s'avère fiable et rapide, mais n'a jamais été appliquée et validée pour l'évaluation de l'oedème en chirurgie orthopédique. Objectif : L'objectif de l'étude est de valider la mesure de l'oedème du membre inférieur par bioimpédance, chez des patients ayant bénéficié d'une prothèse totale de genou (PTG). Questionnement : Après nous être assurés de l'absence d'influence de l'implant métallique de la PTG sur la mesure, nous nous questionnions sur la validité et la fiabilité des mesures de bioimpédance dans ce contexte. Méthodes : Deux évaluateurs ont mesuré à tour de rôle et à deux reprises successives l'oedème chez 24 patients opérés d'une PTG, à trois temps différents (préopératoire, J+2, J+8). L'oedème a été évalué par bioimpédance (R0) et par conversion en volume de mesures centimétriques du membre inférieur (MI). Nous avons calculé le ratio moyen des MI pour chaque méthode. Nous avons évalué la reproductibilité intra- et inter-observateurs de la bioimpédance (coefficient de corrélation intraclasse, CCI) et la corrélation entre méthodes (Spearman). Résultats : Le ratio moyen opéré/sain du volume des MI est de 1.04 (SD ± 0.06) en préopératoire, 1.18 (SD ± 0.09) à J+2 et 1.17 (SD ± 0.10) à J+8. Le ratio sain/opéré des MI de R0 est de 1.04 (SD ± 0.07) en préopératoire, 1.51 (SD ± 0.22) à J+2 et 1.65 (SD ± 0.21) à J+8. En préopératoire, à J+2 et J+8, les CCI tous supérieurs à 0.95 pour la reproductibilité intra- et inter-observateurs de la bioimpédance. La corrélation entre méthodes est de 0.71 en préopératoire, 0.61 à J2 et 0.33 à J8. Analyse et conclusion : La variation du ratio des MI entre les temps préopératoire, J+2 et J+8 est plus marquée pour R0. La mesure de bioimpédance bénéficie d'une excellente reproductibilité intra- et inter-observateurs. L'évolution dans le temps de la corrélation entre méthodes peut être expliquée par l'influence potentielle de facteurs confondants sur R0 (modification de la composition liquidienne) et par l'influence de l'atrophie musculaire postopératoire sur la mesure de volume. La collaboration physiothérapeutes-ingénieurs a permis le développement et l'évaluation d'une nouvelle méthode de mesure.
Resumo:
La recherche « Le sens des messages préventifs du sida » a été dirigée par une équipe de spécialistes relevant de domaines distincts - linguistique (Pr Pascal Singy), santé publique (Dre Brenda Spencer), médecine psychosociale (Pr Patrice Guex). Partant du constat que les langues naturelles n'existent que sous la forme de variétés, il a été postulé que le registre lexical du VIH/sida et de sa prévention n'échappe pas au principe de variabilité sémantique qui veut que, séparés par la multiplicité de leurs identités (sexe, appartenance socioculturelle, âge, etc.), les membres d'une « même » communauté linguistique tendent à associer à une unité lexicale donnée des significations différentes, voire antagonistes. Menée entre 2004 et 2006 en Suisse romande, la recherche « Le sens des messages préventifs du sida » s'appuie sur une approche sémantique de la prévention. Elle interroge les limites d'une communication préventive différée - par voie d'affiches et de brochures, en particulier - qui suppose que le destinataire ou récepteur d'un message en prend connaissance en l'absence de celui qui l'a émis. Les différents mécanismes conversationnels d'ajustement faisant à l'évidence défaut dans ce type de situation de communication, la variabilité sémantique peut dès lors apparaître problématique. S'agissant de l'objectif de cette recherche, il a essentiellement tenu dans la mise en évidence du degré de consensus que montrent les récepteurs (la population générale) ainsi que les émetteurs des messages préventifs à propos des significations attachées à des unités constitutives du lexique du VIH/sida et de sa prévention. Cette mise en évidence a par ailleurs permis d'évaluer la convergence des résultats obtenus pour les premiers et pour les seconds. Du point de vue méthodologique, un corpus de documents préventifs a été constitué - des brochures, principalement, publiées en français entre 1996 et 2004 - et analysé. Soixante et une unités lexicales, relevant du français commun ou spécialisé, ont alors été sélectionnées. L'ensemble de ces unités a été soumis à soixante représentants de la population générale vaudoise ainsi qu'à trente professionnels vaudois de la prévention dans le cadre d'entretiens en face à face. Ces entretiens ont permis de dégager les significations que ces deux populations attachent à une partie des unités lexicales (N=21) et le niveau d'intelligibilité/utilisation de l' autre partie des unités (N=40) - cf. infra *. Sur la base des résultats obtenus pour la population générale vaudoise, quinze unités lexicales apparues particulièrement problématiques ont été sélectionnées et soumises par le moyen d'une enquête téléphonique (CATI) à cinq cents Romands. Mêlant techniques qualitatives et quantitatives, la recherche « Le sens des messages préventifs du sida » apporte des résultats intéressant non plus seulement les agents de la prévention du VIH/sida, mais également les patients de celle-ci, c'est-à-dire la population générale. Des résultats qui se trouvent susceptibles de renforcer la portée de la prévention du VIH/sida en particulier dans la partie francophone de la Suisse. *Les unités lexicales sélectionnées sont les suivantes : abstinence, anus, caresses, coït anal, contact sexuel, contamination par voie sexuelle, coucher avec, cunnilingus, dépistage, « évitez le contact de la bouche avec du sperme ou du sang », faire l'amour, fellation, fidèle, gai, gay, immunisé, infection sexuellement transmissible, IST, liquides biologiques, maladies vénériennes, menstruation, MST, muqueuses, muqueuse buccale, muqueuses génitales, « pas de sperme dans la bouche », pathogène, pénétration, plaie ouverte, préservatif, préservatif féminin, prophylaxie de post-exposition [PEP], rapport bucco-génital, rapport sexuel, rapports sexuels non protégés, rapports sexuels oraux, rectum, relation anale, relation stable, relation vaginale, safer sex, sécrétions sexuelles, sécrétions vaginales, séronégatif, séropositif, sexe à moindre risque, sexe anal, sida, sperme, surcontamination, symptôme, système immunitaire, test d'anticorps VIH, test VIH, traitements antirétroviraux combinés, traitement combiné, trithérapies, urètre, vaginal, VIH, virus IH.
Resumo:
Face à la multiplicité des méthodes psychothérapeutiques, prendre un temps de réflexion critique sur le fondement des soins, et notamment dans les domaines de la psychopathologie et de la psychothérapie, peut apporter un éclairage singulier dans la compréhension de l'homme souffrant. Tel est l'un des objectifs de l'anthropologie clinique. Un détour historique de la notion, de son objet et ses visées, permet ici de mieux en circonscrire les contours.
Resumo:
This PhD dissertation deals with the question of evaluating social welfare and public policy making through the works of William Stanley Jevons (1835-1882) and Léon Walras (1834-1910), two economists who lived in the 19th century. These authors, well-known for their analyses on pure economics, were also deeply interested in the social problems of their time and proposed solutions to remedy them. In accordance with utilitarianism, Jevons was convinced that the reforms implemented by public authorities should improve social welfare (viewed as dependant on individual utilities). As for Walras, he defined a justice criterion based on a particular definition of natural law, and the reforms he proposed had the objective of restoring the rights following from this definition. We have drawn two principal conclusions from our work. First, the analyses of Jevons and Walras, who are often considered marginalise, are different not only in pure economics (as suggested by Jaffé in the seventies), but also from the point of view of welfare economics (defined as a science dealing with the evaluation of different social states). Secondly, these authors propose two different ways of justifying social reforms which have similarities with modern theory even though neither Jevons nor Walras are considered pioneers of welfare economics or public economics. Based on these two conclusions, we claim that studying these authors' theories might be of interest for the evaluation of public projects by the economists of today. Not only were their problems similar to ours, but also the original ideas present in their analyses may lead to the refinement of modern methods.Résumé en françaisCette these de doctorat porte sur les manières dont deux économistes du XIXe siècle, William Stanley Jevons (1835-1882) et Léon Walras (1834-1910), abordent la question du bien- etre collectif et la prise de décision publique. Connus principalement pour leurs travaux en économie pure, ces auteurs s'intéressent également à la question sociale et proposent des solutions pour y remédier. Jevons, conformément à son adhésion à la tradition utilitariste, estime que les interventions des autorités publiques doivent avoir pour objectif l'amélioration du bien- être collectif. Quant à Walras, il adopte un critère de justice qui relève du « droit naturel » et les propositions sociales qu'il préconise sont justifiées sur la base de leur conformité avec ce dernier. A l'issue du travail effectué dans le cadre de cette thèse, nous avons abouti à deux résultats principaux : (1) Les analyses de Jevons et Walras, deux économistes qui sont souvent considérés comme des « marginalistes » diffèrent fondamentalement non seulement dans leur analyse de l'économie pure, comme Jaffé le soulignait (1976), mais également en termes d'économie du bien-être (comprise comme une science ayant pour objectif l'évaluation des différents états sociaux). (2) Il existe deux voies originales pour justifier les réformes sociales dans les oeuvres de Jevons et Walras qui partagent des similarités importantes avec les théories modernes bien que ces auteurs ne fassent pas partie des jalons généralement retenus de l'histoire de l'économie du bien-être et de l'économie publique. Ces deux résultats nous conduisent à avancer que l'étude des approches de Jevons et de Walras peut contribuer à la formulation de nouvelles solutions à des problèmes rencontrés dans l'évaluation des différentes politiques publiques, car non seulement les préoccupations de ces auteurs était similaires aux nôtres, mais vu les éléments originaux que leurs propositions comportent, elles peuvent permettre de nuancer certaines aspects des méthodes modernes.
Resumo:
Les fluides de coupe sont principalement utilisés pour leurs propriétés lubrifiantes et/ou pour leur qualité de refroidissement des pièces en métallurgie. Ils sont utilisés pour faciliter l'opération d'usinage et contribue à améliorer la durée de vie de l'outil utilisé. Ils permettent d'éloigner les copeaux de la zone de coupe, ce qui contribue à l'obtention d'un état de surface de qualité, et de refroidir le copeau et la pièce usinée afin de contribuer à la précision dimensionnelle de la pièce finie. Les usages des fluides de coupe sont en évolution depuis les années 2000. Il y a environ 15-30 ans, seules les huiles entières étaient utilisées. Aujourd'hui, l'utilisation des huiles varie selon le type d'application mais il est à noter toutefois que l'usage des huiles entières est en pleine décroissance depuis 2001, contrairement à celui des fluides aqueux (émulsions) en pleine expansion. Les fluides de coupe exposeraient selon l'étude SUMER plus de 1 million de travailleurs. Il existe deux grands secteurs principaux utilisateurs de ces fluides : le travail des métaux (qui expose selon l'INRS le plus grand nombre de salariés) et l'automobile (plus grand secteur utilisateur selon la CSNIL, Chambre Syndical Nationale de l'Industrie des Lubrifiants). De nombreux éléments existent autour de la prévention des risques liés à l'utilisation des fluides de coupe mais comme le rappelait l'INRS dans son rapport publié en 2002, la plupart des méthodes de prévention, collectives ou individuelles, bien que déjà connues, ne sont pas toujours appliquées, et notamment dans les petites entreprises. De plus les moyens de surveillance, bien que largement détaillés dans de nombreux guides, sont rarement mis en oeuvre. Néanmoins, des substances dangereuses peuvent se retrouver soit au sein de la formulation des fluides de coupe (comme certains additifs, biocides..), soit se former au cours du stockage (comme c'est le cas de pour la NDELA, N-nitroso diéthanolamine). Certaines substances ont déjà vu leur usage en tant que biocide être interdit en France, tel que le formaldéhyde ou encore l'acide borique. Des solutions de substitution existent déjà, telles que la micro-lubrification ou l'usinage à sec. Mais la mise en place ou la recherche de substituts s'accompagne souvent de difficultés en ce qui concerne l'adaptation du processus industriel. La mise en oeuvre des collaborations avec les fournisseurs doit donc être fortement encouragée. Enfin, il existe des zones d'ombre concernant les risques associés au développement microbiologique intervenant lors du vieillissement des fluides. L'utilisation grandissante de ces fluides de type aqueux est en lien avec ces problèmes de contamination microbienne des fluides ainsi que les pathologies respiratoires qui semblent y être associées. Cependant l'absence de référentiel exclut toute interprétation des résultats relatifs à ces agents microbiologiques retrouvés à la fois dans les fluides et les aérosols. Conclusions : En raison de la complexité de la formulation des fluides de coupe, il n'existe pas aujourd'hui de méthode de mesure fiable pour évaluer l'exposition à ces produits. Ainsi la mise en place d'une évaluation quantitative des risques sanitaires complète semble prématurée voire impossible. Il apparaît cependant nécessaire d'aller plus loin en matière de prévention : - une valeur limite pourrait être imposée concernant les quantités en amines secondaires précurseurs de nitrosamines, telle que développée dans le modèle allemand, le respect de cette réglementation allemande est déjà un argument mis en place par certains fournisseurs français ; - La micro-lubrification et la recherche de substitution doivent être encouragées ; - L'élaboration d'un référentiel microbiologique qui puisse tenir compte de la qualité des fluides et de la protection des travailleurs devrait être soutenue. [Auteurs]
Resumo:
La contrefaçon de médicaments est un phénomène qui s'est amplifié ces dernières années et touche désormais toutes les régions du monde. Les réseaux de production et de distribution impliqués constituent de véritables industries. Malgré les répercussions dramatiques au niveau sanitaire et économique, les sanctions légales sont souvent inappropriées, non appliquées ou inapplicables. Les méthodes traditionnelles d'investigation, souffrant d'une absence de stratégie et de démarche structurée, sont partiellement désarmées face à ce problème. En tant que principales cibles économiques, les entreprises pharmaceutiques ont développé des mesures de protection de leurs produits ainsi que des méthodes analytiques pour différencier les contrefaçons des médicaments authentiques. Davantage d'informations peuvent néanmoins être révélées pour le renseignement à partir des données analytiques. Les saisies de contrefaçon représentent en effet les seules traces tangibles, les seuls témoins du problème. Dans cette optique le profilage des saisies, qui constitue le coeur de ce travail, est le meilleur moyen de détecter les productions organisées et industrialisées de cette forme de criminalité. L'étude porte sur plusieurs saisies d'un type de gélules Roche régulièrement visé par les contrefacteurs. Des éléments pertinents des gélules et de l'emballage contrefaits, intégrés à une banque de données organisée, ont permis de révéler de pertinentes informations. De nombreux liens, à l'origine inconnus, ont en effet pu être dévoilés et observés entre les saisies à différents niveaux de la production, soutenant l'hypothèse d'un réseau principal de contrefacteurs dominant le marché, alors même que le nombre de saisies à disposition était limité. L'interprétation des liens grâce aux informations circonstancielles a permis de fournir des indications sur la fabrication et la distribution des contrefaçons provenant de ce réseau. Cette approche, généralisable à d'autres types de médicament, est un témoignage du fort potentiel que possède le renseignement provenant des données analytiques pour la compréhension du crime organisé.