999 resultados para stratégies de transfert


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Que se passe-t-il quand un texte de type scientifique est transposé d'un contexte (national, linguistique, académique) à un autre? Les articles réunis dans ce volume, issus d'un colloque de relève organisé à l'Université de Lausanne le 14 mars 2008, traitent cette question en se focalisant notamment sur les sujets suivants: - Retraduire Bakhtine et Voloshinov en français aujourd'hui; problèmes conceptuels; l'importation des courants critiques. - Traduire les Russes: «la grande Lumière qui vient de l'Est» et le filtre du marxisme occidental. - La traduction comme réinvention d'un texte. L'anachronisme comme effet de sens, le malentendu comme effet de reconnaissance. - La traduction scientifique comme pratique: questions de traductologie; les débats historiques sur la traduction; les polémiques autour des traductions; la comparaison des traductions. - La traduction comme échange (inégal) entre les nations; enjeux scientifiques et culturels des traductions; constitution de corpus transnationaux; mondialisation des savoirs et dépassement des catégories nationales de la pensée académique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Certains pathogènes tels que le virus de l'hépatite C ainsi que le virus de l'immunodéficience humaine sont capables de détourner les mécanismes de défense du système immunitaire adaptatif afin d'établir des infections chroniques chez l'homme. La souche clone-13 du virus de la chorioméningite lymphocytaire est utilisée comme modèle d'études d'infection virale chronique chez la souris. Les raisons qui expliqueraient la persistance de certains virus ne sont pas encore bien définies. Toutefois, il a été montré qu'une exposition prolongée à un environnement inflammatoire ainsi que la présence prolongée de l'antigène sont des facteurs qui vont déclencher un procédé de différentiation particulier des lymphocytes T CD8+. Ces cellules sur-expriment alors des récepteurs inhibiteurs tels que PD-1 tandis que leur capacité à produire des cytokines diminue. Ce procédé de différentiation est appelé « exhaustion » et serait à l'origine de la génération de réponses lymphocytaires non ou peu fonctionnelles entraînant de ce fait la persistance de l'infection. Néanmoins, il a également été démontré que ces lymphocytes maintiennent des fonctions effectrices et qu'ils permettent de limiter la réplication du virus. Afin d'étudier la fonction effectrice résiduelle de ces lymphocytes T, nous avons transféré des cellules provenant de souris infectées chroniquement dans des souris receveuses naïves qui ont à leur tour été infectées avec le virus. Grâce à ces expériences, nous avons démontré que les cellules transférées contiennent des cellules qui sont capables de i) re-proliférer, ii) de protéger les souris contre une infection virale, et de iii) survivre en l'absence d'antigène. Nous avons remarqué que les cellules stimulées de façon chronique maintiennent le même phénotype lorsqu'elles sont transférées dans des souris naïves soumises à une infection virale aiguë. Nous avons de ce fait conclu que les cellules stimulées chroniquement contiennent une sous-population de cellules qui comporte des attributs de cellules T mémoire. D'autre part, nous avons pu identifier le facteur de transcription Tcf-1 comme l'élément essential pour la génération des cellules T ressemblant à des cellules mémoires. D'autre part, nous avons étudié l'impact du niveau de stimulation via le récepteur des cellules T (TCR) sur le phénotype adopté par les lymphocytes T au cours d'une infection chronique. Dans ce but, nous avons généré des souches de virus recombinants qui expriment un épitope modifié de manière à réduire le niveau de stimulation via le TCR. D'autre part, nous avons utilisé un mélange de deux souches virales de manière à moduler spécifiquement la quantité d'un épitope tout en conservant la même charge virale. Nous avons montré que la quantité d'antigène avait plus d'influence sur le phénotype des lymphocytes T que la force d'interaction entre le complexe peptide-CMH et le TCR. De plus, l'apparition de ce phénotype ne semble pas avoir d'impact sur la prolifération des cellules en réponse à une infection primaire ou secondaire. Ainsi, nous proposons un modèle par lequel le procédé d'« exhaustion » des cellules T correspond à une différentiation cellulaire particulière qui est indépendante de la capacité de prolifération des cellules. De manière générale, ces découvertes apportent de nouvelles connaissances sur les sous-catégories de lymphocytes T CD8+ qui sont générés pendant une infection virale chronique. Nous pensons que la réponse effectrice du système immunitaire est maintenue pendant de longues périodes grâce à la présence de cellules par partagent certaines caractéristiques avec des cellules mémoires. L'étude approfondie de ces cellules peut avoir des implications importantes sur l'optimisation des stratégies utilisant l'immunothérapie pour combattre les infections chroniques et cancers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé L'étude de l'adaptation d'une entreprise aux mutations socio-économiques affectant son environnement sociétal donc de sa régulation, requiert de prime abord de comprendre et de caractériser ces mutations. I1 importe ensuite de déterminer les actions et stratégies déployées par cette entreprise en réponse aux pressions environnementales, ainsi que leurs éventuelles retombées sur les caractéristiques de l'environnement qui ont suscité ces réponses. Pour prendre part à cette réflexion, nous nous concentrons sur les conditions d'adaptation de la société d'État Togolaise :Togo Télécom, et nous tentons de confronter la réalité de cette évolution aux différents modèles de l'adaptation élaborés par la théorie des organisations. Une analyse concrète des enjeux soulevés par l'environnement de Togo Télécom et de leurs implications pour la société et pour la Nation a été réalisée au sein de l'organisation. Elle a pris appui sur les documents écrits pertinents à la recherche et sur le recueil des avis et perceptions des acteurs politiques, économiques, syndicaux et institutionnels concernés par l'avenir de l'entreprise. Les résultats indiquent que la société a su globalement entreprendre une réforme interne bénéfique qui lui a permis de faire face aux nouvelles réalités de son environnement malgré le boulet de la dette, tout en s'assurant l'attachement et le support de ses parties prenantes. Cette réforme a pu être mise en place notamment grâce à la remarquable capacité d'adaptation de ces parties prenantes et elle a également été à l'origine de la création d'un "réseau "redéfinissant l'organisation du travail sur le marché ainsi que les rôles, les problèmes et les caractéristiques de l'environnement sociétal. Afin de replacer cette relation particulière dans la théorie des organisations, la présente recherche s'applique à montrer comment le modèle de l'entreprise dominée par son environnement permet d'enrichir notre compréhension des solutions déployées par l'entreprise pour s'adapter; il est ici question d'analyser les comportements et réponses de la société à la lumière des principaux modèles théoriques, afin d'une part de déterminer comment chacun se prête à l'analyse d'un cas pratique et d'autre part de faire ressortir les forces et faiblesses de chaque modèle afin de tendre vers un modèle plus intégratif des réalités de notre cas. Dans cet ordre d'idée, notre recherche à l'instar de Morin (i98z) et de Giddens (1987), nous indique entre autres qu'il est primordial de ne pas isoler la théorie des organisations, dans des visions trop unilatérales, avec des points de vue partiels, mais d'adhérer à la réalité linéaire de la récursivité de l'adaptation des sociétés d'État industrielles et commerciales Africaines car ces organisations possèdent des propriétés spécifiques qui dépassent l'univers des ressources, des compétences ou des jeux d'acteurs qui les composent (Morin (198?)).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Il est actuellement reconnu que l'endothélium vasculaire joue un rôle primordial dans la genèse des maladies cardiovasculaires, notamment l'artériosclérose. Dès lors, il est important de pouvoir investiguer la fonction endothéliale en clinique. Pour ce faire, il est particulièrement simple d'examiner la microcirculation cutanée, car celle-ci est très simplement accessible, de manière non-invasive, par fluxmétrie laser-Doppler. Pratiquement, on mesure l'augmentation du flux sanguin dermique en réponse à des stimuli connus pour agir via l'endothélium vasculaire. Les stimuli endothélium-dépendants les plus courants sont l'interruption temporaire du flux sanguin qui est suivie d'une hyperémie réactive, et l'administration transcutanée d'acétylcholine (Ach) par iontophorèse. La iontophorèse consiste à obtenir le transfert d' une substance ionisée, telle l'Ach, par l'application d'un courant électrique de polarité appropriée. L'objectif du présent travail était de déterminer le rôle des prostaglandines dans ces réponse vasodilatatrices dépendante de l'endothélium, rôle actuellement peu clair. 23 jeunes hommes volontaires non fumeurs et en bonne santé habituelle ont été examinés lors de deux visites séparées par 1 à 3 semaines. Lors de chaque visite, l'hyperémie réactive et la réponse vasodilatatrice à l'Ach ont été déterminées dans la peau de l'avant bras après administration soit d'un placebo, soit d'un inhibiteur de la cyclooxygénase (COX, enzyme qui contrôle la synthèse des prostaglandines). Chez certains sujets, l'inhibiteur était de l'acétylsalicylate de lysine (900 mg par voie intraveineuse). Chez d'autres sujets, il s'agissait d'indométhacine. (75 mg par voie orale). Comme la stimulation nociceptive liée au courant iontophorétique peut influencer la réponse à l'Ach, celle-ci a été déterminée en présence et en l'absence d'anesthésie de surface (crème de lidocaine). La réponse à l'Ach a été obtenue pour 4 doses différentes de cet agent (exprimées sous la forme de la densité de charge iontophorétique appliquée : 0.28, 1.4, 7, et 14 millicoulombs par cm2 de peau exposée). Le flux sanguin dermique était mesuré par imagerie laser-Doppler, une variante de la fluxmétrie laser-Doppler classique permettant l'exploration d'une surface de peau de taille arbitraire. Quelle que soit la condition testée, nous n'avons jamais observé la moindre influence de l'inhibition de la COX sur l'hyperémie réactive, ni sur la réponse à l'Ach. Cette dernière était augmentée significativement par l'anesthésie cutanée, que les sujets aient reçu ou non de l'acétylsalicylate de lysine ou de l'indométhacine . Par exemple, la réponses moyenne (±SD) à la plus haute dose d'Ach (testée sur 6 sujets, et exprimée en unités de perfusion, comme il est d'usage en fluxmétrie laser-Doppler ) était la suivante : en l'absence d'anesthésie : acétylsalicylate de lysine 339 ± 105, placebo 344 ± 68 ; avec l'anesthésie : acétylsalicylate de lysine 453 ± 76 , placebo 452 ± 65 (p * 0.001 pour les effets de l'anesthésie). En conclusion, nos résultats infirment une contribution des prostaglandines à l'hyperémie réactive ou à la vasodilatation induite par l'acétylcholine dans la microcirculation cutanée. Dans ce lit vasculaire, l'anesthésie locale accroît la vasodilatation induite par l'acétylcholine par un mécanisme indépendant des prostaglandines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avant - Propos Le feu et la protection incendie Quel que soit l'usage d'un bâtiment, chaque étape de la construction est soumise à l'application de normes. Certaines, utilisées par les architectes et les ingénieurs, concernent le gros oeuvre ; en simplifiant leur rôle, elles assurent la solidité et la stabilité de l'immeuble. Si celui-ci est ouvert au public, des aménagements particuliers concernant la sécurité des personnes sont imposés. D'autres comme les prescriptions sur les installations électriques intérieures, précisent la manière de construire une alimentation, le type de matériel utilisable en fonction du courant et de la tension, les sécurités destinées à éviter toute détérioration des circuits et tout risque d'électrocution, etc. Enfin, les prescriptions en matière de protection incendie jouent évidemment un rôle préventif et, dans le domaine judiciaire, servent de références pour qualifier une éventuelle infraction ; elles évitent qu'une source de chaleur installée dans un bâtiment - tel qu'un appareil de chauffage ou des plaques de cuisson - ou susceptible d'apparaître consécutivement à l'usure d'un matériau ou à son vieillissement - disparition d'un isolant thermique, défaut d'étanchéité d'un conduit transportant les gaz chauds de combustion, par exemple - ne communiquent une partie de l'énergie calorifique dégagée à un combustible et ne l'enflamme. Le concept de protection incendie implique d'exposer et de développer les principales notions relatives à l'inflammation d'un matériau, à sa combustion ainsi qu'au transport de l'énergie calorifique. Fréquemment, le milieu dans lequel le générateur de chaleur est installé joue un rôle dans la phase d'allumage de l'incendie. Il est évident que les prescriptions de protection incendie s'appliquent à chaque élément de construction et, par conséquent, doivent être respectées par toute personne participant à la réalisation d'un ouvrage : le chauffagiste, l'électricien, l'installateur sanitaire, le constructeur de cuisine, mais également le maçon qui construit la cheminée, le peintre et le décorateur qui posent des revêtements ou des garnitures inflammables, le menuisier qui utilise le bois pour dissimuler des conduites de fumée, etc. Dès lors, tout sinistre, hormis celui qui est perpétré délibérément, ne peut s'expliquer que par : - le non-respect ou le défaut d'application d'une prescription de protection incendie; - une lacune de la norme qui ignore une source d'échauffement et/ou un mode de transfert de l'énergie calorifique. Le but premier de ce travail consiste à : - analyser les sinistres survenus durant les années 1999 à 2005 dans plusieurs cantons suisses qui ont fait l'objet d'une investigation de la part d'un service technique de la police ou d'un expert ; - examiner les éléments retenus pour expliquer la cause de l'incendie à la norme afin de répondre à la question : « l'application d'une ou de plusieurs directives lors de l'installation ou de l'utilisation du générateur d'énergie calorifique aurait-elle évité à ce dernier de communiquer une partie de la chaleur dégagée à un combustible et à l'enflammer ? » Le second objectif visé est d'apporter une solution à la question précédente : - si la norme existe, c'est un défaut d'installation ou d'utilisation de la source de chaleur qui est à l'origine de l'incendie. Il importe donc de connaître la raison pour laquelle la prescription a été ignorée ou appliquée de manière erronée ou lacunaire; - si la norme n'existe pas, ce sont les prescriptions en matière de protection incendie qui doivent être complétées. Le chapitre suivant abordera ces thèmes en proposant divers postulats destinés à évaluer l'efficacité actuelle du concept de protection incendie en Suisse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Présentation La littérature montre que le problème de l'erreur médicale est loin d'être sous contrôle, malgré les efforts déployés pour améliorer la sécurité des soins. Le problème de l'erreur est éminemment complexe et doit être abordé sous différents angles. Une approche possible du problème est l'expérience des médecins face à l'erreur. A quoi les médecins attribuent-ils une erreur et comment font-ils face à une erreur dont ils se sentent responsables ? Quels mécanismes de coping sont mis en oeuvre ? Ces questions ne sont pas banales car certains médecins vont typiquement montrer des réactions défensives visant à minimiser leurs responsabilités et d'autres vont montrer des réactions constructives visant à amener des changements concrets dans leur pratique ou dans le système de soins. Enjeux Cette recherche vise à mieux comprendre les facteurs qui influencent l'expérience de l'erreur et les mécanismes de coping après une erreur. Plus spécifiquement, cette recheche vise à explorer l'influence du genre. Les études disponibles sont quantitatives et n'abordent pas en profondeur l'expérience individuelle de femmes médecins. C'est dans ce créneau-là qu'a voulu se positionner cette recherche, en proposant une approche qualitative par interview. Contexte de recherche Le contexte général est l'expérience de l'erreur vécue par des femmes médecins. Afin de resserrer le cadre du projet, le recrutement a été ciblé sur (1) des médecins particulièrement à risque d'erreurs, c'est-à-dire des médecins novices, en formation postgraduée, et (2) des femmes travaillant en médecine interne hospitalière, un passage obligé pour nombre dedecins en formation. L'étude a été conduite au sein du Service dedecine interne du CHUV, avec 8 médecins-assistantes. Conclusions L'étude a révélé que la culture de l'erreur et de la sécurité est encore insuffisamment développée dans notre contexte de formation postgraduée et que l'expérience de l'erreur reste très douloureuse pour les médecins-assistantes. Le soutien de ia hiérarchie varie beaucoup et certaines assistantes se sentent clairement stigmatisées en situation d'erreur. Quant aux statégies de coping, nos données semblent indiquer un effet « genre » dans le type de statégies privilégiées. Certaines stratégies sont ciblées sur l'émotion et visent à minimiser l'impact émotionnel de l'erreur sur l'individu ; d'autres ciblées sur le problème et visent à engager des changements destinés à prévenir une récidive. Perspectives La profession médicale et les milieux de formation doivent travailler à une culture plus transparente de l'erreur. Avec une meilleure culture et un meilleur soutien des médecins exposées à l'erreur, il sera plus facile de les amener à des changements constructifs après une erreur. Des conclusions plus précises sur un effet « genre » impliquent de procéder à une comparaison directe entre médecins- assistants et médecins-assistantes. Contribution du doctorant J'ai eu l'idée initiale du projet, tandis que la perspective genre a été proposée par la première auteure, Cindy Ottiger Mankaka. J'ai supervisé l'ensemble du projet et apporté une contribution susbtantielle au manuscript en assurant la totalité du processus de soumission-révisions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Facial reanimation following persistent facial paralysis can be managed with surgical procedures of varying complexity. The choice of the technique is mainly determined by the cause of facial paralysis, the age and desires of the patient. The techniques most commonly used are the nerve grafts (VII-VII, XII-VII, cross facial graft), dynamic muscle transfers (temporal myoplasty, free muscle transfert) and static suspensions. An intensive rehabilitation through specific exercises after all procedures is essential to archieve good results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face aux questions urgentes de marginalisation des villes méditerranéennes, nous nous interrogeons sur les modalités de l'intégration économique des territoires méditerranéens par les firmes multinationales, et sur la manière d'envisager leurs développements dans un contexte économique néo-libéral où le développement passe avant tout par l'investissement privé. Les firmes multinationales, grâce à leur organisation en réseaux à l'échelle de la planète, participent à ces processus d'intégration et se voient confier un rôle fondamental dans les politiques publiques d'intégration des territoires. Par une approche multi-échelles et multi-niveaux, nous avons observé l'intégration des villes par les réseaux de firmes multinationales en approfondissant en particulier les villes des pays du sud de la Méditerranée par les firmes multinationales du secteur agroalimentaire. Au niveau micro, nous avons analysé les stratégies des firmes multinationales selon une approche structurelle de leurs réseaux d'organisation financière, qui combine une approche élaborée par les gestionnaires selon le degré d'intégration internationale des activités au sein des groupes, avec l'analyse quantitative des réseaux sociaux. Au niveau macro, afin d'étudier le réseau de villes, nous avons effectué une agrégation de ces stratégies micro d'entreprises par agglomérations urbaines représentant des villes comparables. Nous avons confronté ces résultats à des études monographiques afin de souligner les processus locaux d'intégration des territoires par les firmes multinationales. D'après nos résultats, nous pouvons suggérer que les processus de métropolisation du système de villes sont le résultat à la fois d'attractivités internationales multiples, et de logiques sectorielles cumulées, conformément à la théorie des économies d'agglomération. La forte différenciation des modes de gouvernance des réseaux d'entreprises au niveau micro et la faible différenciation des réseaux de villes par ces mêmes firmes au niveau macro, nous a donc conduit à penser que les différences de mode de gouvernance observées au niveau micro des firmes multinationales vont se traduire par une différenciation au niveau de la mise en réseau des firmes à l'échelle intra-urbaine. Cette mise en réseau à l'échelle intra-urbaine est déterminante puisque nous avons observé que la connectivité intra-urbaine est fortement corrélée au pouvoir relatif de la ville sur les autres villes. Ceci peut s'expliquer par le fait que les villes qui ont des fonctions de siège ont besoin de s'appuyer sur un ensemble de services dans la ville, donc de fortes économies d'urbanisation. Nous avons observé que les villes méditerranéennes appartiennent à la région européenne mais la dissysmétrie des relations entre le nord et le sud témoignent de processus de périphérisation liées aux structures internationales des accords bilatéraux entre l'union européenne et les pays du sud de la Méditerranée. Cependant, nous avons pu vérifier au niveau local que la firme participe à des processus de développement plus larges à l'échelle du pays en participant à la restructuration des filières locales. Parce qu'elles appliquent le même modèle d'implantation où qu'elles soient, ce sont les acteurs institutionnels qui jouent un rôle déterminant dans les processus de développement en protégeant les filières locales, en réglementant les marchés nationaux, et en soutenant au niveau local les acteurs de la filière. Ces observations appliquées au cadre euro-méditerranéen suggèrent qu'il faudrait soutenir davantage les structures internationales pour accroître la compétitivité des territoires méditerranéens, et ce à tous les niveaux : renforcer les partenariats régionaux sud-sud pour l'émergence d'une région sud-méditerranéenne plus intégrée, et soutenir et réglementer davantage les filières locales avec une attention particulière accordée aux processus intra-urbains.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin de pouvoir se défendre contre les insectes nuisibles, les plantes ont développé plusieurs stratégies leur permettant de maximiser leurs chances de survie et de reproduction. Parmi elles, les plantes sont souvent pourvues de barrières physiques telles que les poils urticants, les épines et la cuticule. En plus, les plantes sont capables de produire des protéines anti-digestives et des métabolites secondaires insecticides tels que la nicotine, les tannins ou les glucosinolates (GS). La mise en place de ces barrières physiques et chimiques comporte un coût énergétique au détriment de la croissance et de la reproduction. Par conséquent, en absence d'insectes, la plante investit la majeure partie de son énergie dans le développement et la croissance. A l'inverse, une blessure causée par un insecte provoquera une croissance ralentie, une augmentation de la densité de poils urticants ainsi que la synthèse de défenses chimiques. Au niveau moléculaire, cette défense inductible est régulée par l'hormone végétale acide jamsonique (AJ). En réponse à l'attaque d'un insecte, la plante produit cette hormone en grande quantité, ce qui se traduira par une forte expression de gènes de défense. Pendant ma thèse, j'ai essayé de découvrir quels étaient les facteurs de transcription (FT) responsables de l'expression des gènes de défense dans Arabidopsis thaliana. J'ai ainsi pu démontrer que des plantes mutées dans les FTs comme MYC2, MYC3, MYC4, ZAT10, ZAT12, AZF2, WRKY18, WRKY40, WRKY6, ANAC019, ANAC55, ERF13 et RRTF1 deviennent plus sensibles aux insects de l'espèce Spodoptera littoralis. Par la suite, j'ai également pu montrer que MYC2, MYC3 et MYC4 sont probablement la cible principale de la voie de signalisation du AJ et qu'ils sont nécessaires pour l'expression de la majorité des gènes de défense dont la plupart sont essentiels à la biosynthèse des GS. Une plante mutée simultanément dans ces trois protéines est par conséquent incapable de synthétiser des GS et devient hypersensible aux insectes. J'ai également pu démontrer que les GS sont uniquement efficaces contre les insectes généralistes tels S. littoralis et Heliothis virescens alors que les insectes spécialisés sur les Brassicaceae comme Pieris brassicae et Plutella xylostella se sont adaptés en développant des mécanismes de détoxification. - In response to herbivore insects, plants have evolved several defence strategies to maximize their survival and reproduction. For example, plants are often endowed with trichomes, spines and a thick cuticule. In addition, plants can produce anti-digestive proteins and toxic secondary metabolites like nicotine, tannins and glucosinolates (GS). These physical and chemical barriers have an energetic cost to the detriment of growth and reproduction. As a consequence, in absence of insects, plants allocate their energy to development and growth. On the contrary, an attack by herbivore insects will affect plant growth, increase trichome density and induce the production of anti-digestive proteins and secondary metabolites. At the molecular level, this inducible defence is regulated by the phytohormone jasmonic acid (JA). Thus, an attack by herbivores will be followed by a burst of JA that will induce the expression of defence genes. The aim of my thesis was to characterize which transcription factors (TF) regulate the expression of these defence genes in Arabidopsis thaliana. I could show that plants mutated in various TFs like MYC2, MYC3, MYC4, ZAT10, ZAT12, AZF2, WRKY18, WRKY40, WRKY6, ANAC019, ANAC55, ERF 13 and RRTFl were more susceptible to the herbivore Spodoptera littoralis. Furthermore, I could demonstrate that MYC2, MYC3 and MYC4 are probably the main target of the JA-signalling pathway and that they are necessary for the insect-mediated induction of most defence genes including genes involved in the biosynthesis of GS. A triple mutant myc2myc3myc4 is depleted of GS and consequently hypersensitive to insects. Moreover, I showed that GS are only efficient against generalist herbivores like S. littoralis and Heliothis virescens whereas specialized insects like Pieris brassicae and Plutella xylostella have evolved detoxification mechanisms against GS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME L'hyperammonémie est particulièrement toxique pour le cerveau des jeunes patients et entraîne une atrophie corticale, un élargissement des ventricules et des défauts de myélinisation, responsables de retards mentaux et développementaux. Les traitements actuels se limitent à diminuer le plus rapidement possible le taux d'ammoniaque dans l'organisme. L'utilisation de traitements neuroprotecteurs pendant les crises d'hyperammonémie permettrait de contrecarrer les effets neurologiques de l'ammoniaque et de prévenir l'apparition des troubles neurologiques. Au cours de cette thèse, nous avons testé trois stratégies de neuroprotection sur des cultures de cellules en agrégats issues du cortex d'embryons de rats et traitées à l'ammoniaque. - Nous avons tout d'abord testé si l'inhibition de protéines intracellulaires impliquées dans le déclenchement de la mort cellulaire pouvait protéger les cellules de la toxicité de l'ammoniaque. Nous avons montré que L'exposition à l'ammoniaque altérait la viabilité des neurones et des oligodendrocytes, et activait les caspases, la calpaïne et la kinase-5 dépendante des cyclines (cdk5) associée à son activateur p25. Alors que l'inhibition pharmacologique des caspases et de la calpaïne n'a pas permis de protéger les cellules cérébrales, un inhibiteur de la cdk5, appelé roscovitine, a réduit significativement la mort neuronale. L'inhibition de la cdk5 semble donc être une stratégie thérapeutique prometteuse pour prévenir 1es effets toxiques de 1'ammoniaque sur les neurones. - Nous avons ensuite étudié les mécanismes neuroprotecteurs déclenchés par le cerveau en réponse à la toxicité de l'ammoniaque. Nous avons montré que l'ammoniaque induisait la synthèse du facteur neurotrophique ciliaire (CNTF) par les astrocytes, via l'activation de la protéine kinase (MIAPK) p38. D'autre part, l'ajout de CNTF a permis de protéger les oligodendrocytes mais pas les neurones des cultures exposées à l'ammoniaque, via les voies de signalisations JAK/STAT, SAPK/JNK et c-jun. - Dans une dernière partie, nous avons voulu contrecarrer, par l'ajout de créatine, le déficit énergétique cérébral induit par l'ammoniaque. La créatine a permis de protéger des cellules de type astrocytaire mais pas les cellules cérébrales en agrégats. Cette thèse amis en évidence que les stratégies de neuroprotection chez les patients hyperammonémiques nécessiteront de cibler plusieurs voies de signalisation afin de protéger tous les types cellulaires du cerveau. Summary : In pediatric patients, hyperammonemia is mainly caused by urea cycle disorders or other inborn errors of metabolism, and leads to neurological injury with cortical atrophy, ventricular enlargement and demyelination. Children rescued from neonatal hyperammonemia show significant risk of mental retardation and developmental disabilities. The mainstay of therapy is limited to ammonia lowering through dietary restriction and alternative pathway treatments. However, the possibility of using treatments in a neuroprotective goal may be useful to improve the neurological outcome of patients. Thus, the main objective of this work was to investigate intracellular and extracellular signaling pathways altered by ammonia tonicity, so as to identify new potential therapeutic targets. Experiments were conducted in reaggregated developing brain cell cultures exposed to ammonia, as a model for the developing CNS of hyperammonemic young patients. Theses strategies of neuroprotection were tested: - The first strategy consisted in inhibiting intracellular proteins triggering cell death. Our data indicated that ammonia exposure altered the viability of neurons and oligodendrocytes. Apoptosis and proteins involved in the trigger of apoptosis, such as caspases, calpain and cyclin-dependent kinase-5 (cdk5) with its activator p25, were activated by ammonia exposure. While caspases and calpain inhibitors exhibited no protective effects, roscovitine, a cdk5 inhibitor, reduced ammonia-induced neuronal death. This work revealed that inhibition of cdk5 seems a promising strategy to prevent the toxic effects of ammonia on neurons. - The second strategy consisted in mimicking, the endogenous protective mechanisms triggered by ammonia in the brain. Ammonia exposure caused an increase of the ciliary neurotrophic factor (CNTF) expression, through the activation of the p38 mitogen-activated protein kinase (MAPK) in astrocytes. Treatment of cultures exposed to ammonia with exogenous CNTF demonstrated strong protective effects on oligodendrocytes but not on neurons. These protective effects seemed to involve JAK/STAT, SAPK/JNK and c-jun proteins. - The third strategy consisted in preventing the ammonia-induced cerebral energy deficit with creatine. Creatine treatment protected the survival of astrocyte-like cells through MAPKs pathways. In contrast, it had no protective effects in reaggregated developing brain cell cultures exposed to ammonia. The present study suggests that neuroprotective strategies should optimally be directed at multiple targets to prevent ammonia-induced alterations of the different brain cell types.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Cette recherche analyse les transformations de la gouvernance d'entreprise et des relations industrielles entre 1970 et 2008 dans le contexte suisse, en mettant l'accent sur les changements survenus depuis les années 1990. Elle se centre sur le secteur de l'industrie des machines, de l'électrotechnique et de la métallurgie -noyau historique du capitalisme helvétique et principal employeur et exportateur industriel du pays - et discute l'hypothèse de la convergence des économies coordonnées vers le modèle libéral. Elle examine d'abord les formes de coordination hors-marché qui se sont consolidées entre les élites économiques suisses au cours de la période d'après-guerre. Les stratégies d'innovation incrémentale des grandes sociétés étaient soutenues par une gouvernance marquée par la faible pression des marchés des capitaux, en raison notamment de la forte concentration de l'actionnariat, de mécanismes protectionnistes en matière d'accès au contrôle des sociétés, ainsi que d'une grande interdépendance entre banques et entreprises. Cette interdépendance apparaît dans la forte densité du réseau d'interconnexions des Conseils d'administration, où les principales banques tiennent une place centrale. Le réseau met également en relation les sociétés du secteur entre elles, ainsi qu'avec des firmes actives sur d'autres marchés, ce qui témoigne de l'irréductibilité des stratégies industrielles à une pure logique de compétition centrée sur les marchés. Les stratégies à long terme du management peuvent également s'appuyer sur un système pacifié de relations industrielles, caractérisé par l'autorégulation des acteurs privés dans le cadre d'un partenariat social de branche entre des associations aux stratégies modérées, « néocorporatistes ». Nous analysons alors l'impact de la libéralisation et de la financiarisation de l'économie suisse sur la coordination des élites économiques durant les années 1990. Nous montrons que l'affirmation des fonds d'investissement a déstabilisé le système traditionnel de gouvernance d'entreprise. Ce dernier a ainsi été marqué par l'émergence d'un marché pour le contrôle de l'entreprise -fin du «capital patient » -, la dissolution de l'interdépendance entre banques et industries et plus globalement des formes de coordination hors-marché reposant sur le réseau d'interconnexions des Conseils d'administration, ainsi que par de profondes restructurations des grandes sociétés orientées vers la création de richesse pour les actionnaires. La recherche explore alors les logiques d'interactions entre la sphère de la gouvernance d'entreprise et celle des relations industrielles, l'affirmation du capital financier faisant pression sur le partenariat social dans le sens d'une flexibilisation et déréglementation du marché du travail. Par ailleurs, nous mettons en perspective le rôle central des élites dans le changement institutionnel. Loin de subir la pression des actionnaires, les préférences d'une nouvelle élite managériale au profil financier ont convergé avec les intérêts des investisseurs dans le processus de financiarisation. Ces préférences ont également participé à l'érosion du partenariat social de branche. Du côté syndical, l'émergence -ici aussi - d'une nouvelle élite, académique et issue de la gauche politique, au cours des années 1990, a remis en cause les recettes de l'ancienne génération de syndicalistes ouvriers. La principale association du secteur a ainsi diversifié ses registres d'action en investissant la sphère politique et en relativisant la paix absolue du travail, deux stratégies activement rejetées par le syndicat au cours du régime de croissance d'après-guerre. Tout en mettant la sociologie des élites au service d'une meilleure compréhension des processus de changement institutionnel dans les capitalismes contemporains, cette recherche souligne des logiques de changement différentes dans les sphères sous revue :changement disruptif dans la gouvernance d'entreprise, incrémentai dans les relations industrielles. L'analyse s'est appuyée sur le croisement de différentes méthodes : analyse documentaire, entretiens semi-directifs, analyse du parcours et profil des élites, analyse de réseau, études de cas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Situer des évènements dans le temps est une question essentielle en science forensique, de même que le transfert et l'identification. En effet, si une personne déclare avoir été sur les lieux d'un crime à un autre moment que l'évènement en question, la trace laissée (transfert) sur les lieux par cette personne (identification) perd toute signification. La pertinence de la trace est donc étroitement liée à la notion de temps. Les difficultés rencontrés lors de l'étude de la datation de différents type de traces ont crées une controverse mondiale sur la validité des méthodes proposées jusqu'ici, particulièrement en regard de la responsabilité de l'expert scientifique face à la justice. Si l'on considère la récurrence de cette problématique en sciences forensiques, une approche systématique ainsi qu'une meilleure compréhension fondamentale de la détermination de l'âge d'une trace est définitivement nécessaire. Cela représente un grand défi, puisque les processus de vieillissement sont influencés par plusieurs facteurs qui peuvent considérablement accélérer ou ralentir le vieillissement. Ceux-ci devront être étudiés de manière approfondie et peuvent être classés en trois groupes principaux : (i) la composition initiale de la trace, (ii) le type de substrat sur lequel se trouvent les traces, et (iii) les conditions de stockage. Pour ces raisons, l'objectif est donc plus de déterminer un intervalle de temps durant lequel la trace a été déposée, plutôt qu'une date précise. Finalement, une interprétation des résultats selon une approche probabiliste (par ex. basée sur une inférence de type Bayesienne sous deux hypothèses alternatives) semble la plus appropriée. Le développement de cette approche globale fait l'objet d'un ambitieux programme de recherche soutenu par le Fonds National Suisse de la Recherche Scientifique.