1000 resultados para Problème de comportement
Resumo:
We perceive our environment through multiple sensory channels. Nonetheless, research has traditionally focused on the investigation of sensory processing within single modalities. Thus, investigating how our brain integrates multisensory information is of crucial importance for understanding how organisms cope with a constantly changing and dynamic environment. During my thesis I have investigated how multisensory events impact our perception and brain responses, either when auditory-visual stimuli were presented simultaneously or how multisensory events at one point in time impact later unisensory processing. In "Looming signals reveal synergistic principles of multisensory integration" (Cappe, Thelen et al., 2012) we investigated the neuronal substrates involved in motion detection in depth under multisensory vs. unisensory conditions. We have shown that congruent auditory-visual looming (i.e. approaching) signals are preferentially integrated by the brain. Further, we show that early effects under these conditions are relevant for behavior, effectively speeding up responses to these combined stimulus presentations. In "Electrical neuroimaging of memory discrimination based on single-trial multisensory learning" (Thelen et al., 2012), we investigated the behavioral impact of single encounters with meaningless auditory-visual object parings upon subsequent visual object recognition. In addition to showing that these encounters lead to impaired recognition accuracy upon repeated visual presentations, we have shown that the brain discriminates images as soon as ~100ms post-stimulus onset according to the initial encounter context. In "Single-trial multisensory memories affect later visual and auditory object recognition" (Thelen et al., in review) we have addressed whether auditory object recognition is affected by single-trial multisensory memories, and whether recognition accuracy of sounds was similarly affected by the initial encounter context as visual objects. We found that this is in fact the case. We propose that a common underlying brain network is differentially involved during encoding and retrieval of images and sounds based on our behavioral findings. - Nous percevons l'environnement qui nous entoure à l'aide de plusieurs organes sensoriels. Antérieurement, la recherche sur la perception s'est focalisée sur l'étude des systèmes sensoriels indépendamment les uns des autres. Cependant, l'étude des processus cérébraux qui soutiennent l'intégration de l'information multisensorielle est d'une importance cruciale pour comprendre comment notre cerveau travail en réponse à un monde dynamique en perpétuel changement. Pendant ma thèse, j'ai ainsi étudié comment des événements multisensoriels impactent notre perception immédiate et/ou ultérieure et comment ils sont traités par notre cerveau. Dans l'étude " Looming signals reveal synergistic principles of multisensory integration" (Cappe, Thelen et al., 2012), nous nous sommes intéressés aux processus neuronaux impliqués dans la détection de mouvements à l'aide de l'utilisation de stimuli audio-visuels seuls ou combinés. Nos résultats ont montré que notre cerveau intègre de manière préférentielle des stimuli audio-visuels combinés s'approchant de l'observateur. De plus, nous avons montré que des effets précoces, observés au niveau de la réponse cérébrale, influencent notre comportement, en accélérant la détection de ces stimuli. Dans l'étude "Electrical neuroimaging of memory discrimination based on single-trial multisensory learning" (Thelen et al., 2012), nous nous sommes intéressés à l'impact qu'a la présentation d'un stimulus audio-visuel sur l'exactitude de reconnaissance d'une image. Nous avons étudié comment la présentation d'une combinaison audio-visuelle sans signification, impacte, au niveau comportementale et cérébral, sur la reconnaissance ultérieure de l'image. Les résultats ont montré que l'exactitude de la reconnaissance d'images, présentées dans le passé, avec un son sans signification, est inférieure à celle obtenue dans le cas d'images présentées seules. De plus, notre cerveau différencie ces deux types de stimuli très tôt dans le traitement d'images. Dans l'étude "Single-trial multisensory memories affect later visual and auditory object recognition" (Thelen et al., in review), nous nous sommes posés la question si l'exactitude de ia reconnaissance de sons était affectée de manière semblable par la présentation d'événements multisensoriels passés. Ceci a été vérifié par nos résultats. Nous avons proposé que cette similitude puisse être expliquée par le recrutement différentiel d'un réseau neuronal commun.
Resumo:
Contexte : l'adolescence est une période de transition au cours de laquelle l'enfant développe les capacités physiques et cognitives qui lui permettent de s'intégrer au monde adulte et qui se caractérise notamment par une prise de risque, une grande impulsivité et une constante recherche de sensations. Bien que des déterminants sociaux et familiaux entrent en jeu dans ce domaine, il y a également une composante neurobiologique importante. Les avancées techniques dans le domaine de l'imagerie ont permis de mettre en évidence plusieurs changements structurels à l'adolescence tels qu'un remodelage de la matière grise avec une perte de synapses plus ou moins importante selon la région observée et une augmentation de la myélinisation. En outre, le développement cérébral n'est pas uniforme dans le temps. En effet, la maturation du cortex préfrontal est ultérieure au développement du système limbique. Cet asynchronisme pourrait expliquer l'impulsivité des adolescents (consécutive à l'immaturité du cortex préfrontal) et leur comportement de recherche de sensation et/ou de prise de risque (consécutif au développement précoce du noyau accumbens notamment). Ces régions font également partie intégrante du système de récompense et modulent la motivation pour des récompenses naturelles et non-‐naturelles, comme l'alcool et d'autres drogues. L'émergence d'une consommation d'alcool excessive est justement préoccupante chez les adolescents. En 2007, l'étude ESPAD (The European School Survey Project On Alcohol and Other Drugs) menée auprès de jeunes de 15 à 16 ans relève que 41% des jeunes questionnées ont régulièrement bu jusqu'à l'ivresse dans les 12 mois précédant l'entretien. Les conséquences neuropsychologiques à long terme de ce comportement de « binge-‐drinking » commencent à alarmer le corps médical, mais l'interrogation demeure sur les risques de ce type de comportement vis-‐à-‐vis du développement d'un alcoolisme chronique à l'âge adulte. Objectifs du travail : en s'appuyant sur une revue de la littérature, ce travail a pour objectif d'expliquer les comportements qui émergent à l'adolescence à la lumière des modifications neurobiologiques qui s'opèrent durant cette période critique. Au niveau expérimental, nous proposons d'évaluer la propension de rats juvéniles exposés précocement à de l'alcool à développer un comportement d'abus de consommation d'alcool à l'âge adulte en comparaison avec un groupe contrôle. Dans un deuxième temps nous souhaitons déterminer la propension des rats exposés précocement à de l'alcool à montrer une préférence pour l'alcool par rapport à la saccharine, puis par rapport à de l'eau en comparaison au groupe contrôle. Méthode : nous comparons deux groupes de rongeurs adolescents (âgés de 32 jours à 67 jours). Le groupe test (groupe E, n=8), qui est exposé par un accès ad libitum à une solution d'éthanol 10 % contenant de la saccharine 0.2%, ceci afin de limiter l'aspect gustatif aversif de l'éthanol. Et le groupe témoin (groupe S, n=8), qui est exposé par un accès ad libitum à une solution de saccharine 0.2%. Ce conditionnement se fait sur 13 semaines. Une fois atteinte l'âge adulte, les animaux sont ensuite entraînés à appuyer sur un levier afin de recevoir de l'éthanol (0,1 ml d'une solution à 10%). Nous nous proposons d'évaluer la quantité d'alcool ainsi consommée, puis la motivation des animaux pour obtenir de l'éthanol et enfin leur capacité de résistance à un choc électrique non douloureux mais aversif, lorsque celui-‐ci est associé à l'éthanol. Enfin, nous évaluerons, via un paradigme de choix à deux leviers, la propension des animaux à choisir de consommer volontairement de l'éthanol quand ils ont le choix entre de l'éthanol 10% et une solution de saccharine à différentes concentrations, puis entre de l'éthanol 10% et de l'eau. Résultats : la phase de tests de comportements à risque d'abus ne permet pas de mettre en évidence une différence significative entre les deux groupes. La phase de test de choix montre une diminution significative du pourcentage d'appuis sur le levier associé à la saccharine avec la diminution de la concentration de saccharine pour les deux groupes. Le groupe S a un pourcentage d'appuis sur le levier associé à l'éthanol significativement plus important que les rats du groupe E et a tendance à préférer l'éthanol pour une concentration de saccharine plus grande que le groupe E. Le groupe S montre également une préférence significative pour l'éthanol quand il n'a plus que le choix avec l'eau alors que le groupe E ne montre pas de préférence. Conclusions : chez des rats élevés dans les mêmes conditons, la consommation précoce d'éthanol n'est pas un facteur de risque de comportements d'abus de consommation d'alcool à l'âge adulte. Cependant un phénomène dit de « sensiblisation croisée » entre le goût sucrée et l'éthanol a été soulevé au cours de cette étude permettant de se questionner sur l'impact d'une consommation intermittente de substances au goût sucré à l'adolescence sur la consommation d'alcool à l'âge adulte.
Resumo:
Résumé - De la dyschronie chez les enfants instables, hypothèse d'une difficulté d'instauration d'un temps transitionnel. Du syndrome d'asynergie motrice et mentale de Wallon (1925) au déficit d'inhibition du comportement de Barkley (1997), l'agitation de l'enfant a souvent été liée à une difficulté à penser, organiser et partager les représentations inhérentes à la temporalité. La dyschronie, telle que formulée par Gibello (1976), constitue une théorie heuristique pour penser ce défaut de symbolisation du temps. Pour mieux comprendre ces phénomènes, plusieurs épreuves projectives (Rorschach, TAT, dessins) ont été proposées à un jeune garçon instable dyschronique. Les analyses mettent en évidence une discontinuité des capacités représentatives. Si une différence entre un protocole Rorschach qui s'est révélé restreint et un TAT abondant en constitue le premier signe, des indices spécifiques montrent une difficulté d'instauration d'une aire de jeu imaginaire stable ou plus précisément un manque de continuité dans les phénomènes transitionnels (Winnicott, 1975). Peut-on dès lors envisager un lien entre la difficulté de représentation des transformations (Gibello, 2004) et ce déficit d'instauration, non plus seulement d'un espace, mais aussi d'un temps où se représentent les transitions ?
Resumo:
Contexte : Le retour au travail des personnes atteintes d'un cancer devient, depuis quelques années, un sujet de préoccupation au niveau de la santé publique. En effet, grâce aux nouvelles techniques de dépistage et de traitement, les taux de guérisons sont de plus en plus élevés, et avec eux la possibilité d'un retour dans la vie professionnelle. Il a cependant été constaté qu'un certain nombre de patients rencontraient des problèmes dans la réinsertion. Les facteurs rentrant en compte dans la problématique du retour au travail sont très variés, allant du type de cancer aux caractéristiques du patient et de son environnement de travail, en passant par la qualité de la prise en charge. Plusieurs études ont été faites en vue d'améliorer cette dernière. Certaines se sont penchées sur le rôle du médecin, en général du médecin du travail. La situation en Suisse est particulière car il y a peu de médecins du travail, la responsabilité d'aborder la question du retour au travail des patients repose donc sur les médecins oncologues ou généralistes.¦But de l'étude : Explorer le rôle des médecins dans la prise en charge de la problématique du travail chez les patients atteints de cancer ; en mettant en évidence de quelle manière ceci est abordé dans la littérature, puis en abordant avec des médecins leur attitude en pratique, l'importance qu'ils accordent à ce problème, de quelle manière ils essaient de le détecter et de le prendre en charge, et les difficultés qu'ils pourraient rencontrer dans cette démarche.¦Méthode : Revue de la littérature. Entretiens qualitatifs, semi-structurés, basés sur une grille d'entretien thématique, avec huit médecins de Suisse romande, oncologues et généralistes. Analyse qualitative des résultats selon la grille et mise en perspective des résultats par la littérature existante.¦Résultats : La majorité des médecins interrogés considère que c'est dans leur rôle d'aborder la problématique du travail, mais ils accordent aussi une grande importance à l'assistant social, qu'ils impliquent plus ou moins dans la prise en charge. Les participants confirment tous l'importance de la problématique, bien que la plupart pensent que le retour au travail se déroule bien pour la majorité des patients. Ils l'abordent pour la plupart avec leurs patients, cependant ceci se fait de manière peu systématique et est compliqué par le manque de connaissances sur l'impact du cancer sur le travail. Pour remédier à cela et repérer les situations à risque, ils se basent surtout sur leur expérience personnelle et sur l'évaluation avec le patient. Ils mettent en évidence la spécificité de chaque situation et la nécessité de personnaliser la discussion de ce problème, ceci fait qu'ils ont de la peine à imaginer l'utilité de guidelines ou de brochures d'information. Toutefois, les avis sont partagés, certains pointent des manques et seraient intéressés par des ressources supplémentaires.¦Conclusion : L'importance du rôle des médecins dans la problématique du travail chez les patients atteints de cancer a été prouvée dans plusieurs études. Cependant, peu d'études ont encore exploré le point de vue des médecins, ce qui rend cette étude intéressante. Celle-ci explore l'attitude des médecins en Suisse Romande, et révèle que le problème y est pris en charge de manière personnalisée, mais pas de manière systématique et que ceci pourrait potentiellement être amélioré. Dans ce but, il reste encore à définir des mesures concrètes.
Resumo:
Rapport de synthèse « Faible prévalence de la fibrillation auriculaire chez des adultes asymptomatiques à Genève, Suisse » But : l'augmentation de la prévalence de la fibrillation auriculaire (FA) est dans les pays développés un problème de santé publique. L'ampleur de cette augmentation demeure cependant peu claire. L'objectif de ce travail est de déterminer la prévalence de la FA au sein d'un échantillon représentatif d'adultes asymptomatiques de plus de 50 ans. Méthode : entre janvier 2005 et décembre 2007, des individus résidants du canton de Genève et ayant déjà participé précédemment à une étude randomisée ont été invités pour un examen de contrôle. Le diagnostic de FA a été posé à l'aide d'un tracé électrocardiographique 6 pistes. Tous les tracés ont étés revus par un cardiologue. Les prévalences de FA ont ensuite été standardisées pour la distribution d'âge dans la population genevoise. Une prise de sang veineuse a été réalisée chez tous les participants après 8 heures de jeûne et la glycémie, la triglyceridémie, le cholestérol sérique total ainsi que le cholestérol HDL sérique ont été déterminés. Résultats : la participation a été de 72.8%. 29 cas de FA (22 hommes) ont été diagnostiqués parmi 3285 sujets (1696 hommes). La prévalence de la FA (95% Cl) était de 0.88% (0.86, 0.90). La prévalence standardisée pour l'âge était légèrement plus élevée [0.94% (0.91, 0.97), hommes: 1.23% (1.19, 1.27), femmes; 0.54% (0.47, 0.61)]. Les sujets avec une FA étaient plus âgés (72.1 vs. 63.1 ans, ρ < 0.0001), plus souvent de sexe masculin (75.9% vs. 50.4%, ρ = 0.0087), avaient un indice de masse corporelle plus élevé (27.9 vs. 25,9 kg/m2, ρ = 0.011), un périmètre abdominal plus important (98.8 vs. 90.2 cm, ρ = 0.0034), une tension artérielle diastolique plus élevée (80.9 vs. 75.7mmhg, ρ = 0.0093), un cholestérol sérique total plus bas (5.16 vs. 5.75mmol/L, ρ = 0.0019) et un HDL cholestérol sérique plus bas (1.31 vs. 1.48 mmol/L, ρ = 0.02). A l'anamnèse un antécédent « d'embolie artérielle » (cérébrale ou membres inférieurs) était significativement plus fréquent chez les sujets avec une FA (10.3 vs. 3.3%, ρ = 0.03). Conclusion : cette étude basée sur une population suisse asymptomatique montre une prévalence de la FA inférieure à 1%. Ces résultats sont moins alarmants que ceux obtenus lors de précédentes études.
Resumo:
L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.
Resumo:
Pratique verbale à la fois familière et fondamentale dans les sociétés démocratiques contemporaines, le débat reste paradoxalement peu connu et peu étudié en tant que tel. L'ouvrage propose de plonger au coeur de cette pratique et d'opérer ce travail à deux niveaux étroitement articulés. À un niveau théorique, le débat pose certaines questions aux sciences du langage et à la sociologie de l'action. L'auteur s'attache à y répondre en approchant les pratiques verbales à l'articulation des perspectives textuelle (problématique de l'enchaînement des énoncés) et interactionnelle (problématique des dynamiques au travers desquelles les agents gèrent leur relation). Le caractère multimodal de ces pratiques est également considéré, qu'il s'agisse de l'articulation oral-écrit, du lien entre parole et mimo-gestualité ou encore de la répartition des participants dans l'espace. À un niveau pratique, la spécificité du débat repose sur certains observables qu'il s'agit d'identifier et de décrire et qui permettent de distinguer le débat d'autres formes de comportement, telles que l'anecdote, la discussion ou la dispute. Par l'analyse de nombreux exemples tirés d'interactions publiques, l'ouvrage montre en quoi la pratique de l'argumentation et l'inscription langagière de certaines identités apparaissent comme les deux ressources fondamentales d'accomplissement et de reconnaissance de la pratique du débat.
Resumo:
Présentation La littérature montre que le problème de l'erreur médicale est loin d'être sous contrôle, malgré les efforts déployés pour améliorer la sécurité des soins. Le problème de l'erreur est éminemment complexe et doit être abordé sous différents angles. Une approche possible du problème est l'expérience des médecins face à l'erreur. A quoi les médecins attribuent-ils une erreur et comment font-ils face à une erreur dont ils se sentent responsables ? Quels mécanismes de coping sont mis en oeuvre ? Ces questions ne sont pas banales car certains médecins vont typiquement montrer des réactions défensives visant à minimiser leurs responsabilités et d'autres vont montrer des réactions constructives visant à amener des changements concrets dans leur pratique ou dans le système de soins. Enjeux Cette recherche vise à mieux comprendre les facteurs qui influencent l'expérience de l'erreur et les mécanismes de coping après une erreur. Plus spécifiquement, cette recheche vise à explorer l'influence du genre. Les études disponibles sont quantitatives et n'abordent pas en profondeur l'expérience individuelle de femmes médecins. C'est dans ce créneau-là qu'a voulu se positionner cette recherche, en proposant une approche qualitative par interview. Contexte de recherche Le contexte général est l'expérience de l'erreur vécue par des femmes médecins. Afin de resserrer le cadre du projet, le recrutement a été ciblé sur (1) des médecins particulièrement à risque d'erreurs, c'est-à-dire des médecins novices, en formation postgraduée, et (2) des femmes travaillant en médecine interne hospitalière, un passage obligé pour nombre de médecins en formation. L'étude a été conduite au sein du Service de médecine interne du CHUV, avec 8 médecins-assistantes. Conclusions L'étude a révélé que la culture de l'erreur et de la sécurité est encore insuffisamment développée dans notre contexte de formation postgraduée et que l'expérience de l'erreur reste très douloureuse pour les médecins-assistantes. Le soutien de ia hiérarchie varie beaucoup et certaines assistantes se sentent clairement stigmatisées en situation d'erreur. Quant aux statégies de coping, nos données semblent indiquer un effet « genre » dans le type de statégies privilégiées. Certaines stratégies sont ciblées sur l'émotion et visent à minimiser l'impact émotionnel de l'erreur sur l'individu ; d'autres ciblées sur le problème et visent à engager des changements destinés à prévenir une récidive. Perspectives La profession médicale et les milieux de formation doivent travailler à une culture plus transparente de l'erreur. Avec une meilleure culture et un meilleur soutien des médecins exposées à l'erreur, il sera plus facile de les amener à des changements constructifs après une erreur. Des conclusions plus précises sur un effet « genre » impliquent de procéder à une comparaison directe entre médecins- assistants et médecins-assistantes. Contribution du doctorant J'ai eu l'idée initiale du projet, tandis que la perspective genre a été proposée par la première auteure, Cindy Ottiger Mankaka. J'ai supervisé l'ensemble du projet et apporté une contribution susbtantielle au manuscript en assurant la totalité du processus de soumission-révisions.
Resumo:
The widespread use of combination antiretroviral therapy (ARVs) has considerably improved the prognosis of patients infected with HIV. Conversely, considerable advances have been recently realized for the therapy of hepatitis C infection with the recent advent of potent new anti-HCV drugs that allow an increasing rate HCV infection cure. Despite their overall efficacy, a significant number of patients do not achieve or maintain adequate clinical response, defined as an undetectable viral load for HIV, and a sustained virological response (or cure) in HCV infection. Treatment failure therefore still remains an important issue besides drugs toxicities and viral resistance which is not uncommon in a significant percentage of patients who do not reach adequate virological suppression. The reasons of variability in drug response are multifactorial and apart from viral genetics, other factors such as environmental factors, drug- drug interactions, and imperfect compliance may have profound impact on antiviral drugs' clinical response. The possibility of measuring plasma concentration of antiviral drugs enables to guide antiviral drug therapy and ensure optimal drug exposure. The overall objective of this research was to widen up the current knowledge on pharmacokinetic and pharmacogenetic factors that influence the clinical response and toxicity of current and newly approved antiretroviral and anti-HCV drugs. To that endeavour, analytical methods using liquid chromatography coupled with tandem mass spectrometry have been developed and validated for the precise and accurate measurement of new antiretroviral and anti-HCV drugs . These assays have been applied for the TDM of ARVs and anti-HCV in patients infected with either HIV or HCV respectively, and co-infected with HIV- HCV. A pharmacokinetic population model was developed to characterize inter and intra-patient variability of rilpivirine, the latest marketed Non Nucleoside Reverse transcriptase (NNRTI) Inhibitor of HIVand to identify genetic and non genetic covariates influencing rilpivirine exposure. None of the factors investigated so far showed however any influence of RPV clearance. Importantly, we have found that the standard daily dosage regimen (25 mg QD) proposed for rilpivirine results in concentrations below the proposed therapeutic target in about 40% of patients. In these conditions, virologie escape is a potential risk that remains to be further investigated, notably via the TDM approach that can be a useful tool to identify patients who are at risk for being exposed to less than optimal levels of rilpivirine in plasma. Besides the last generation NNRTI rilpivirine, we have studied efavirenz, the major NNRTI clinically used so far. Namely for efavirenz, we aimed at identifying a potential new marker of toxicity that may be incriminated for the neuropsychological sides effects and hence discontinuation of efavirenz therapy. To that endeavour, a comprehensive analysis of phase I and phase II metabolites profiles has been performed in plasma, CSF and in urine from patients under efavirenz therapy. We have found that phase II metabolites of EFV constitute the major species circulating in blood, sometimes exceeding the levels of the parent drug efavirenz. Moreover we have identified a new metabolite of efavirenz in humans, namely the 8-OH-EFV- sulfate which is present at high concentrations in all body compartments from patients under efavirenz therapy. These investigations may open the way to possible alternate phenotypic markers of efavirenz toxicity. Finally, the specific influence of P-glycoprotein on the cellular disposition of a series ARVs (NNRTIs and Pis] has been studies in in vitro cell systems using the siRNA silencing approach. -- Depuis l'introduction de la thérapie antirétrovirale (ARVs) la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Une réponse imparfaite ou la toxicité du traitement est certainement multifactorielle. Le suivi thérapeutique des médicaments [Therapeutic Drug Monitoring TDM) à travers la mesure des concentrations plasmatiques constitue une approche importante pour guider le traitement médicamenteux et de s'assurer que les patients sont exposés à des concentrations optimales des médicaments dans le sang, et puissent tirer tout le bénéfice potentiel du traitement. L'objectif global de cette thèse était d'étudier les facteurs pharmacocinétiques et pharmacogénétiques qui influencent l'exposition des médicaments antiviraux (ARVs et anti- VHC) récemment approuvés. A cet effet, des méthodes de quantification des concentrations plasmatiques des médicaments antirétroviraux, anti-VHC ainsi que pour certains métabolites ont été développées et validées en utilisant la Chromatographie liquide couplée à la spectrométrie de masse tandem. Ces méthodes ont été utilisées pour le TDM des ARVs et pour les agents anti-VHC chez les patients infectés par le VIH, et le VHC, respectivement, mais aussi chez les patients co-infectés par le VIH-VHC. Un modèle de pharmacocinétique de population a été développé pour caractériser la variabilité inter-et intra-patient du médicament rilpivirine, un inhibiteur non nucléosidique de la transcriptase de VIH et d'identifier les variables génétiques et non génétiques influençant l'exposition au médicament. Aucun des facteurs étudiés n'a montré d'influence notable sur la clairance de la rilpivirine. Toutefois, la concentration résiduelle extrapolée selon le modèle de pharmacocinétique de population qui a été développé, a montré qu'une grande proportion des patients présente des concentrations minimales inférieures à la cible thérapeutique proposée. Dans ce contexte, la relation entre les concentrations minimales et l'échappement virologique nécessite une surveillance étroite des taux sanguins des patients recevant de la rilpivirine. A cet effet, le suivi thérapeutique est un outil important pour l'identification des patients à risque soient sous-exposés à lai rilpivirine. Pour identifier de nouveaux marqueurs de la toxicité qui pourraient induire l'arrêt du traitement, le profil des métabolites de phase I et de phase II a été étudié dans différentes matrices [plasma, LCR et urine) provenant de patients recevant de l'efavirenz. Les métabolites de phase II, qui n'avaient à ce jour jamais été investigués, constituent les principales espèces présentes dans les matrices étudiées. Au cours de ces investigations, un nouveau métabolite 8- OH-EFV-sulfate a été identifié chez l'homme, et ce dernier est. présent à des concentrations importantes. L'influence de certains facteurs pharmacogénétique des patients sur le profil des métabolites a été étudiée et ouvre la voie à de possibles nouveaux marqueurs phénotypiques alternatifs qui pourraient possiblement mieux prédire la toxicité associée au traitement par l'efavirenz. Finalement, nous nous sommes intéressés à étudier dans un modèle in vitro certains facteurs, comme la P-glycoprotéine, qui influencent la disposition cellulaire de certains médicaments antirétroviraux, en utilisant l'approche par la technologie du siRNA permettant de bloquer sélectivement l'expression du gène de cette protéine d'efflux des médicaments. -- Depuis l'introduction de la thérapie antiretrovirale (ARVs] la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Il a pu être démontré que la concentration de médicament présente dans l'organisme est corrélée avec l'efficacité clinique pour la plupart des médicaments agissant contre le VIH et contre le VHC. Les médicaments antiviraux sont généralement donnés à une posologie fixe et standardisée, à tous les patients, il existe cependant une importante variabilité entre les concentrations sanguines mesurées chez les individus. Cette variabilité peut être expliquée par plusieurs facteurs démographiques, environnementaux ou génétiques. Dans ce contexte, le suivi des concentrations sanguines (ou Therapeutic Drug Monitoring, TDM) permet de contrôler que les patients soient exposés à des concentrations suffisantes (pour bloquer la réplication du virus dans l'organisme) et éviter des concentrations excessives, ce qui peut entraîner l'apparition d'intolérence au traitement. Le but de ce travail de thèse est d'améliorer la compréhension des facteurs pharmacologiques et génétiques qui peuvent influencer l'efficacité et/ou la toxicité des médicaments antiviraux, dans le but d'améliorer le suivi des patients. A cet effet, des méthodes de dosage très sensibles et ont été mises au point pour permettre de quantifier les médicaments antiviraux dans le sang et dans d'autres liquides biologiques. Ces méthodes de dosage sont maintenant utilisées d'une part dans le cadre de la prise en charge des patients en routine et d'autre part pour diverses études cliniques chez les patients infectés soit par le HIV, le HCV ou bien coinfectés par les deux virus. Une partie de ce travail a été consacrée à l'investigation des différents facteurs démographiques, génétiques et environnementaux qui pourraient l'influencer la réponse clinique à la rilpivirine, un nouveau médicament contre le VIH. Toutefois, parmi tous les facteurs étudiés à ce jour, aucun n'a permis d'expliquer la variabilité de l'exposition à la rilpivirine chez les patients. On a pu cependant observer qu'à la posologie standard recommandée, un pourcentage relativement élevé de patients pourrait présenter des concentrations inférieures à la concentration sanguine minimale actuellement proposée. Il est donc utile de surveiller étroitement les concentrations de rilpivirine chez les patients pour identifier sans délai ceux qui risquent d'être sous-exposés. Dans l'organisme, le médicament subit diverses transformations (métabolisme) par des enzymes, notamment dans le foie, il est transporté dans les cellules et tissus par des protéines qui modulent sa concentration au site de son action pharmacologique. A cet effet, différents composés (métabolites) produits dans l'organisme après l'administration d'efavirenz, un autre médicament anti-VIH, ont été étudiés. En conclusion, nous nous sommes intéressés à la fois aux facteurs pharmacologiques et génétiques des traitements antiviraux, une approche qui s'inscrit dans l'optique d'une stratégie globale de prise en charge du patient. Dans ce contexte, le suivi des concentrations sanguines de médicaments constitue une des facettes du domaine émergent de la Médecine Personnalisée qui vise à maximiser le bénéfice thérapeutique et le profil de tolérance des médicaments antiviraux
Resumo:
Le juge est un acteur jusqu'ici sous-estimé des politiques publiques. Son interprétation de la loi peut avoir des effets très importants sur le déroulement du cycle des politiques publiques. La présente étude se propose de mettre en lumière ces effets. La partie théorique propose d'abord une grille d'analyse des rapports entre le droit et la politique pour mieux décrire le champ d'activité dans lequel le juge évolue. Ensuite, elle formule une théorie explicative du comportement du juge en le présentant comme un acteur essentiellement libre, mais soumis à des contraintes factuelles qui le canalisent. L'analyse de deux cas concrets (la lutte contre le hooliganisme et les naturalisations aux urnes) permet de tester les modèles élaborés dans la partie théorique.
Resumo:
Avec 95% de bons résultats à 10 ans, on peut considérer aujourd'hui que l'arthroplastie totale du genou est un traitement fiable des gonarthroses chez des patients âgés à demande fonctionnelle raisonnable. Les quatre complications potentielles principales après la mise en place d'une prothèse totale du genou sont le descellement aseptique, l'infection, le manque de flexion et les douleurs persistantes. En cas de problème avec une prothèse totale du genou, il faut toujours exclure la présence d'une infection avant d'envisager une autre raison. Les innovations actuelles en arthroplastie du genou doivent viser à améliorer les résultats chez les patients jeunes et actifs i.e. tant au niveau de la conception des nouveaux implants, voire des matériaux plus résistants, que des techniques chirurgicales elles-mêmes. Total knee arthroplasty: current advances and results With a 95% success rate at 10 years, total knee arthroplasty can be regarded today as a reliable way of treating knee osteoarthritis in elderly patients with reasonable functional demands. The four main potential complications after placing of a total knee prosthesis are aseptic loosening, infection, lack of flexion and persistent pain. If a problem arises with a total knee prosthesis, infection must always be ruled out before considering other causes. Current innovations in knee arthroplasty should be aimed at improving results in young and active patients, i.e. in regard to both the design of new implants, or tougher materials, and to the surgical techniques themselves.
Resumo:
Dans une famille, le rôle du père et de la mère est de protéger les enfants. Qui critiquerait un comportement paternel ou maternel ? Celui-ci est en effet généralement considéré comme éthiquement souhaitable. De même, les patient(e)s ne souhaitent-ils pas que leur médecin les protège? La société contemporaine s'interroge néanmoins de plus en plus sur les risques potentiels d'une relation basée sur une protection paternelle. Cette problématique ne se réduit pas à la question de la confiance entre le médecin et le malade ; elle relève avant tout du manque d'uniformité des valeurs de notre société. Un médecin ne peut en effet pas conjecturer que, dans tous les cas, le patient partagera les mêmes valeurs que lui. Protéger un patient en allant à l'encontre de ses souhaits n'est plus considéré comme paternel ou justifié; ce comportement est dorénavant considéré comme paternaliste.
Resumo:
Introduction : Les kystes intra-vitréens congénitaux sont rares et ne causent en général pas de complications oculaires. Objectifs et Méthodes : Nous rapportons le cas d'un kyste intra-vitréen non pigmenté que nous avons suivi pendant six ans pour analyser son comportement de croissance. Observation : Il s'agit d'un patient de 62 ans suivi pour un syndrome de Morbihan qui a consulté à cause d'une ombre aperçue dans le champ visuel de l'OD. L'AV était à 1,0 corrigée. L'examen à la lampe à fente a montré la présence d'un kyste transparent flottant dans le vitré. L'ultrason a confirmé l'existence d'un kyste avec un diamètre de 4,37 mm. Ce kyste était entouré d'un deuxième kyste plus grand de 7,15 mm de diamètre. Un contrôle clinique après six ans a montré que les diamètres des kystes ont augmenté à 6.20 mm pour le petit, et 7.95 mm pour le grand kyste. Les volumes des kystes ont augmenté de 43.70 mm3 à 124,97 mm3 pour le petit et de 191.39 mm3 à 263.09 mm3 pour le grand kyste. Discussion : Étant donné que les kystes n'avaient pas d'influence sur l'acuité visuelle, aucun traitement n'a été proposé. Conclusion : Un kyste intra-vitréen non pigmenté peut augmenter considérablement en volume durant six ans d'observation.
Resumo:
On the efficiency of recursive evaluations with applications to risk theoryCette thèse est composée de trois essais qui portent sur l'efficacité des évaluations récursives de la distribution du montant total des sinistres d'un portefeuille de polices d'assurance au cours d'un période donnée. Le calcul de sa fonction de probabilité ou de quantités liées à cette distribution apparaît fréquemment dans la plupart des domaines de la pratique actuarielle.C'est le cas notamment pour le calcul du capital de solvabilité en Suisse ou pour modéliser la perte d'une assurance vie au cours d'une année. Le principal problème des évaluations récursives est que la propagation des erreurs provenant de la représentation des nombres réels par l'ordinateur peut être désastreuse. Mais, le gain de temps qu'elles procurent en réduisant le nombre d'opérations arithmétiques est substantiel par rapport à d'autres méthodes.Dans le premier essai, nous utilisons certaines propriétés d'un outil informatique performant afin d'optimiser le temps de calcul tout en garantissant une certaine qualité dans les résultats par rapport à la propagation de ces erreurs au cours de l'évaluation.Dans le second essai, nous dérivons des expressions exactes et des bornes pour les erreurs qui se produisent dans les fonctions de distribution cumulatives d'un ordre donné lorsque celles-ci sont évaluées récursivement à partir d'une approximation de la transformée de De Pril associée. Ces fonctions cumulatives permettent de calculer directement certaines quantités essentielles comme les primes stop-loss.Finalement, dans le troisième essai, nous étudions la stabilité des évaluations récursives de ces fonctions cumulatives par rapport à la propagation des erreurs citées ci-dessus et déterminons la précision nécessaire dans la représentation des nombres réels afin de garantir des résultats satisfaisants. Cette précision dépend en grande partie de la transformée de De Pril associée.
Resumo:
Contexte : Les infections du site opératoire (Surgical Site Infections - SSI) sont des complications fréquentes des procédures chirurgicales et un problème majeur de la santé publique. La surveillance constitue un élément essentiel de la prévention des SSI. Les résultats publiés récemment par certains pays européens suggèrent un impact positif qu'un réseau de surveillance active peut avoir sur le taux de SSI dans les hôpitaux participants. Objectif : La présente étude évalue les effets de la surveillance sur l'incidence des SSI en analysant les résultats du programme suisse multicentrique de surveillance des SSI. Méthodes : L'étude porte sur les 13 premières années du programme, regroupant au total 23 hôpitaux périphériques, cantonaux et universitaires de la Suisse occidentale et du sud. Ce programme, qui a intégré le consortium national Swissnoso en 2011, a été organisé conformément aux principes du système américain de National Nosocomial Infections Surveillance (NNIS). La surveillance incluait les procédures de la chirurgie viscérale (appendicectomie, cholécystectomie, chirurgie du colon et herniaire) et de l'orthopédie (arthroplastie de la hanche et du genou). Les données démographiques et cliniques étaient recueillies de manière standardisée par les infirmières cliniciennes en infectiologie pendant et après l'hospitalisation. Les rapports annuels, résumant les taux des SSI pour chaque type de procédure ainsi que la comparaison inter-hospitalière des risques relatifs ajustés à l'index NNIS, ont été discutés au sein de chaque établissement entre le comité des chirurgiens et le responsable local du programme. Analyses statistiques : Les taux cumulatifs des SSI ont été calculés pour chaque procédure chirurgicale. Une stratification selon le type de SSI (superficielle, profonde, organe/espace) et selon l'index NNIS a été respectée. Les facteurs de risque des SSI ont été identifiés pour chaque procédure par les analyses univariées des caractéristiques du patient (âge, sexe, score ASA, temps avant l'opération) et celles de l'opération (classe de contamination, durée de la chirurgie, urgence, antibioprophylaxie, laparoscopie, procédures multiples, ré¬intervention). Afin d'évaluer l'effet de la durée de la surveillance sur le taux des SSI, le temps de participation au programme a été calculé et stratifié par périodes d'un an par hôpital et par procédure. La corrélation entre la durée de la surveillance et les SSI a été estimée en utilisant les modèles de régression logistique pour chaque procédure avec l'ajustement pour les variables avec p ^ 0.2. Dans toutes les analyses, la valeur p < 0.05 était considéré significative. Résultats : Les taux globaux des SSI étaient : 18.2% pour les colectomies, 6.4% pour les appendicectomies, 2.3% pour les cholécystectomies, 1.7% pour les cures des hernies et 1.6% et 1.3% pour les arthroplasties de la hanche et du genou, respectivement. L'incidence des SSI post-hospitalières allait du 21% pour les colectomies au 94% pour les arthroplasties du genou. Concernant les facteurs prédictifs des SSI, l'index NNIS était valable seulement pour la chirurgie gastro-intestinale, la laparoscopie étant globalement protectrice mais associée à un taux d'infections profondes plus élevé après l'appendicectomie. La durée de la participation au programme de surveillance n'apportait pas de diminution des taux des SSI dans aucune procédure incluse dans l'étude. Conclusions : L'étude confirme l'impact de la surveillance post-hospitalière sur le taux des SSI, l'effet protectrice de la laparoscopie ainsi que l'absence de la valeur prédictive de l'index NNIS en orthopédie. Contrairement aux autres programmes européens nous n'avons pas détecté d'effet positif de la durée de la surveillance sur le taux des SSI. Les résultats obtenus ouvrent la discussion sur l'utilisation plus effective des données de surveillance des SSI.