506 resultados para Conduite dangereuse
Resumo:
Introduction.- La découverte fortuite d'un adénome hypophysaire pose le diagnostic d'incidentalome. Un traitement s'impose en cas d'hypersécrétion et/ou troubles visuels. La conduite à tenir, chirurgie ou surveillance, est discutable en l'absence de symptômes et/ou en présence d'une insuffisance antéhypophysaire (IAH) seule pour les incidentalomes hypophysaires non fonctionnels (IHNF). Dans ce travail multicentrique rétrospectif, nous avons étudié le devenir post-chirurgical d'une série d'IHNF asymptomatiques ou ne présentant qu'une IAH. Matériel et méthodes.- Durant la période 2001-2011, parmi les 853 patients opérés d'un adénome hypophysaire par voie transsphénoïdale, les cas d'IHNF étaient sélectionnés. Tous les patients étaient explorés en pré- et postopératoire à 3, 6 et tous les 12 mois avec explorations endocriniennes, ophtalmologique, et radiologique (IRM sans et avec contraste). Les résultats étaient jugés sur le bilan postopératoire à 6 mois (qualité de résection par IRM, résultats endocriniens, ophtalmologiques, morbidité postopératoire). Résultats ou cas rapporté.- Sur 66 IHNF, 34 (52 %) étaient asymptomatiques ou en IAH seule. La céphalée était à l'origine du bilan dans 44 %. Il s'agissait de macroadénomes (hauteur médiane : 18 mm, Knosp 0-1 : 27 %, Knosp 2 : 38 %, Knosp 3 : 32 %, Knosp 4 : 3 %). Neuf patients étaient en IAH. En postopératoire, l'exérèse était totale dans 76 %. Aucun patient n'était aggravé sur le plan visuel. Sur le plan endocrinien, 33 % des patients avec IAH étaient normalisés, 11,5 % améliorés, 44 % stables et 11,5 % aggravés. Les sujets sans IAH étaient aggravés dans 16 %. La morbidité comportait aussi 3 % de fistules de LCR, 3 % de diabète insipide et 3 % de méningite. Il n'y avait pas de différence significative avec la population d'IHNF symptomatiques en termes de qualité d'exérèse, de morbidité mais globalement les résultats ophtalmologiques et endocriniens étaient supérieurs. Conclusion.- Des études ont montré que 67 % des IHNF devenaient symptomatiques avec 12 % de risque d'apoplexie pituitaire sur une période de 5 ans. Cet argument allié à l'absence de morbidité ophtalmologique rend raisonnable la proposition d'une chirurgie d'exérèse précoce donnant de meilleurs résultats fonctionnels pour les IHNF asymptomatiques.
Resumo:
Contexte: Le désir de hâter la survenue de leur mort (DM)¦exprimé par certains patients est souvent vécu difficilement¦par les soignants. Le débat actuel sur le¦suicide assisté et l'euthanasie met en lumière cette¦problématique encore peu explorée. Le but de cette¦revue est d'identifier la prévalence du DM et les¦facteurs associés à ce désir.¦Méthode: Une revue de littérature a été conduite jusqu'en¦septembre 2010 en utilisant les termes : « Wish to¦die/to hasten death - Desire to hasten death/for¦death/for early death - Request for assistance in¦dying - Assisted suicide - Euthanasia » et « Advanced/¦terminal illness - Chronic illness/disease ». Seules les¦études cliniques menées auprès de patients ont été¦sélectionnées.¦Résultats: 55 études ont été identifiées, dont 13 de type qualitatif¦: 63% d'entre elles portaient sur des patients¦atteints de cancer, 22% de maladies de diverses origines,¦9% d'VIH et 6% de sclérose latérale amyotrophique.¦Seulement 9% portaient spécifiquement sur¦des patients gériatriques. La définition du DM était¦très variable d'une étude à l'autre, allant du désir de¦mourir à un souhait de hâter la survenue de la mort,¦voire à une demande explicite d'assistance au suicide¦ou d'euthanasie. La prévalence du DM variait¦de 2 à 22% selon la définition utilisée et la population¦étudiée. Les facteurs les plus fréquemment associés¦au DM étaient la dépression, le désespoir, la perte¦de sens, de dignité et le sentiment d'être une charge.¦Les symptômes physiques et les autres dimensions¦psychosociales ne paraissaient jouer qu'un rôle indirect.¦Une instabilité temporelle du DM était rapportée¦par neuf travaux, notamment lors de dépression.¦Discussion: L'hétérogénéité de ces études ne permet pas de¦conclure sur la prévalence des différentes expressions¦du DM. Par ailleurs, même si certains facteurs¦semblent associés au DM, de nouvelles études sont¦nécessaires pour mieux comprendre la chronologie¦de son développement.¦Perspectives: Des études prospectives, utilisant notamment une¦approche mixte, qualitative et quantitative, sont nécessaires. Elles devraient explorer non seulement les facteurs de risque mais également les facteurs « protecteurs » du DM. Sur cette base, un modèle conceptuel pourrait être défini et utilisé ensuite pour développer des interventions spécifiques dans l'objectif d'améliorer la prise en charge des patients exprimant un tel désir.¦Références: 1. Hudson PL, Kristjanson LJ, Ashby M, et al. Desire for hastened death in patients with advanced disease and the evidence base of clinical¦guidelines : a systematic review. Palliat Med 2006;20:693-701.¦2. Schroepfer TA. Mind frames towards dying and factors motivating their adoption by terminally ill elders. J Gerontol 2006;61:S129-S139.¦3. Rodin G, Lo C, Mikulincer M, Donner A, Gagliese L, Zimmermann C.¦Pathways to distress : the multiple determinants of depression, hopelessness, and the desire for hastened death in metastatic cancer¦patients. Soc Sci Med 2009;68:562-9.
Resumo:
Rapport de synthèse : Plusieurs investigateurs ont démontré que l'utilisation d'une antibiothérapie prophylactique lors d'interventions neurochirurgicales en terrain non infecté (chirurgie propre) réduisait le taux d'infection. Toutefois, ces taux d'infections sont très variables en fonction des types de chirurgie et de la durée des interventions. Les craniotomies, la mise en place ou le remplacement de shunt ventriculo-cardiaque, l'extirpation de méningiomes intracrâniens et les interventions d'une durée de plus de quatre heures sont grevées d'un taux d'infections post-opératoires plus élevé. Si une prophylaxie antibiotique est maintenant reconnue et utilisée dans ce type de chirurgie, il n'a jamais été démontré que cette pratique amène un bénéfice dans les cas de chirurgie pour hernie discale. Des études ont montré que de nombreux organismes potentiellement pathogènes pouvaient être collectés et cultivés à proximité voire dans le champ opératoire. Malgré ces observations, le taux d'infections post-opératoires reste peu important (entre 1-4% selon les centres). Il n'est actuellement pas possible de distinguer le rôle respectif d'une antibiothérapie prophylactique et des pratiques d'asepsie habituelles (y compris l'usage de solutions de rinçage antiseptiques) dans la faible incidence des infections post-opératoires en ce qui concerne la chirurgie des hernies discales. Lorsque des opérations de chirurgie dite «propre » sont grevées d'un taux de complications aussi bas, une prophylaxie antibiotique n'est généralement pas recommandée, en raison d'un rapport coût-bénéfice défavorable. Le but de cette étude est d'évaluer la nécessité d'une antibiothérapie prophylactique par une céphalosporine de seconde génération (cefuroxime 1,5 g intraveineuse) dans la prévention des infections post-opératoires au cours d'une chirurgie pour hernie discale. Il s'agit d'un essai clinique prospectif, contrôlé contre placebo en insu réciproque, à répartition aléatoire. L'étude a été conduite dans les services de neurochirurgie de l'Hôpital Universitaire de Genève et du Centre Hospitalier Universitaire Vaudois de Lausanne. L'ensemble des patients admis dans ces deux services pour une opération de hernie discale et ayant donné leur consentement ont été inclus dans l'étude qui s'est déroulé sur une période de 6 ans. Mille trois cent soixante-neuf patients opérés pour une hernie discale ont été inclus dans cet essai et 132 patients ont été exclus de l'analyse pour diverses raisons. Au total 1'237 patients ont été analysés, respectivement 613 et 624 patients dans le groupe cefuroxime et le groupe placebo. Les patients des deux groupes présentaient des caractéristiques identiques. Nous n'avons objectivé aucun effet secondaire indésirable attribuable à la cefuroxime ou au placebo. Huit (1.3%) patients du groupe cefuroxime et 18 patients (2.8%) du groupe placebo ont développé une infection du site opératoire (P=0.073). Neuf des patients infectés dans le groupe placebo présentaient une infection profonde du site opératoire (spondylodiscite, abcès épidural) et aucun dans le groupe cefuroxime (P<0.01). Tous les patients avec infection profonde du site opératoire ont été traités par antibiothérapie par voie intraveineuse pour au moins 4 semaines et il a été procédé à une reprise chirurgicale chez deux patients. Ces résultats montrent qu'il faut traiter 69 patients avec une antibiothérapie prophylactique de cefuroxime pour prévenir une infection du site opératoire. En conclusion, l'administration d'une dose de cefuroxime 1.5 g intraveineuse comme prophylaxie lors d'opération de hernie discale, permet de réduire significativement le risque d'infection profonde du site opératoire.
Resumo:
De nos jours, un nombre croissant de personnes souffrant occasionnellement de pathologies pulmonaires désirent se rendre dans des régions d'altitude, et il n'est parfois pas aisé pour le médecin de prodiguer les conseils quant aux conséquences potentielles et à la conduite à tenir dans ces circonstances. Basé sur les connaissances physiopathologiques et quelques études cliniques, cet article aborde l'effet de l'altitude chez les patients souffrant de maladies pulmonaires et renseigne sur l'attitude à adopter, afin qu'un séjour sur les hauts plateaux ou simplement dans une station alpine se passe dans les meilleures conditions possibles.
Resumo:
L'initiative Scène Bleue (SB) se veut un espace, lieu de rencontre de jeunes adolescents âgés de 10 à 18 ans, dans le cadre de l'édition 2001 du Festival de Jazz de Montreux. Il s'agit de proposer une série d'animations permettant de faire la fête sans consommation de substances (légales et/ou illégales). Ce document fait l'historique du projet et de l'évaluation conduite par l'IUMSP. Cette évaluation comprend trois volets, correspondant à des temps différents : 1. Avant - documenter la perception des objectifs et les attentes des jeunes et des animateurs, avant le démarrage du projet SB. 2. Pendant - analyser la réalisation du projet in situ et recueillir informations et réactions auprès de la clientèle de la SB. 3. Après - examiner l'évolution des perceptions des différents acteurs, après le festival. Les résultats peuvent être résumés comme suit : la SB a rencontré un vif succès. La démonstration a été faite que le public concerné pouvait être attiré par un lieu avec des interdits relatifs à la consommation de substances : ainsi l'objectif de prévention primaire ciblant des jeunes âgés de 13 ans en moyenne a été atteint. Les visiteurs plus âgés, moins impliqués, ont malgré tout pu réaliser que faire la fête sans alcool ni drogues était possible. Le projet peut à l'avenir être consolidé en définissant des objectifs et des stratégies de prévention explicites. La participation des jeunes à cette entreprise collective partagée avec les animateurs et les reponsables peut être sollicitée davantage, notamment pour ce qui est de l'organisation et des choix concrets relatifs aux diverses animations. [Résumé]
Resumo:
Dans le contexte de prises en charge psychiatriques hospitalières complexes pour des patients souffrant de troubles psychotiques, le risque est grand que le traitement se limite à l'identification de symptômes, à la définition d'un diagnostic et à l'instauration d'un traitement médicamenteux. La prise en compte des aspects psychologiques de la crise qui conduit à l'hospitalisation et son intégration dans le contexte de l'histoire de vie du patient sont pourtant d'une importance fondamentale pour l'évolution et le succès du traitement. Dans cet article, nous rendons compte d'une démarche de réflexion, conduite dans une unité hospitalière universitaire spécialisée dans le traitement des troubles du spectre de la schizophrénie, visant à identifier les moyens qui permettraient de renforcer la place de l'approche psychologique des troubles psychotiques en milieu hospitalier et de rendre cette approche accessible aux médecins psychiatres en formation dans de telles structures.
Resumo:
L'expérience Belle, située dans le centre de recherche du KEK, au Japon, est consacrée principalement à l'étude de la violation de CP dans le système des mésons B. Elle est placée sur le collisionneur KEKB, qui produit des paires Banti-B. KEKB, l'une des deux « usines à B » actuellement en fonction, détient le record du nombre d'événements produits avec plus de 150 millions de paires. Cet échantillon permet des mesures d'une grande précision dans le domaine de la physique du méson B. C'est dans le cadre de ces mesures de précision que s'inscrit cette analyse. L'un des phénomènes remarquables de la physique des hautes énergies est la faculté qu'a l'interaction faible de coupler un méson neutre avec son anti-méson. Dans le présent travail, nous nous intéressons au méson B neutre couplé à l'anti-méson B neutre, avec une fréquence d'oscillation _md mesurable précisément. Outre la beauté de ce phénomène lui-même, une telle mesure trouve sa place dans la quête de l'origine de la violation de CP. Cette dernière n'est incluse que d'une façon peu satisfaisante dans le modèle standard des interactions électro-faibles. C'est donc la recherche de phénomènes physiques encore inexpliqués qui motive en premier lieu la collaboration Belle. Il existe déjà de nombreuses mesures de _md antérieures. Celle que nous présentons ici est cependant d'une précision encore jamais atteinte grâce, d'une part, à l'excellente performance de KEKB et, d'autre part, à une approche originale qui permet de réduire considérablement la contamination de la mesure par des événements indésirés. Cette approche fut déjà mise à profit par d'autres expériences, dans des conditions quelque peu différentes de celles de Belle. La méthode utilisée consiste à reconstruire partiellement l'un des mésons dans le canal ___D*(D0_)l_l, en n'utilisant que les informations relatives au lepton l et au pion _. L'information concernant l'autre méson de la paire Banti-B initiale n'est tirée que d'un seul lepton de haute énergie. Ainsi, l'échantillon à disposition ne souffre pas de grandes réductions dues à une reconstruction complète, tandis que la contamination due aux mésons B chargés, produits par KEKB en quantité égale aux B0, est fortement diminuée en comparaison d'une analyse inclusive. Nous obtenons finalement le résultat suivant : _md = 0.513±0.006±0.008 ps^-1, la première erreur étant l'erreur statistique et la deuxième, l'erreur systématique.<br/><br/>The Belle experiment is located in the KEK research centre (Japan) and is primarily devoted to the study of CP violation in the B meson sector. Belle is placed on the KEKB collider, one of the two currently running "B-meson factories", which produce Banti-B pairs. KEKB has created more than 150 million pairs in total, a world record for this kind of colliders. This large sample allows very precise measurements in the physics of beauty mesons. The present analysis falls within the framework of these precise measurements. One of the most remarkable phenomena in high-energy physics is the ability of weak interactions to couple a neutral meson to its anti-meson. In this work, we study the coupling of neutral B with neutral anti-B meson, which induces an oscillation of frequency _md we can measure accurately. Besides the interest of this phenomenon itself, this measurement plays an important role in the quest for the origin of CP violation. The standard model of electro-weak interactions does not include CP violation in a fully satisfactory way. The search for yet unexplained physical phenomena is, therefore, the main motivation of the Belle collaboration. Many measurements of _md have previously been performed. The present work, however, leads to a precision on _md that was never reached before. This is the result of the excellent performance of KEKB, and of an original approach that allows to considerably reduce background contamination of pertinent events. This approach was already successfully used by other collaborations, in slightly different conditions as here. The method we employed consists in the partial reconstruction of one of the B mesons through the decay channel ___D*(D0_)l_l, where only the information on the lepton l and the pion _ are used. The information on the other B meson of the initial Banti-B pair is extracted from a single high-energy lepton. The available sample of Banti-B pairs thus does not suffer from large reductions due to complete reconstruction, nor does it suffer of high charged B meson background, as in inclusive analyses. We finally obtain the following result: _md = 0.513±0.006±0.008 ps^-1, where the first error is statistical, and the second, systematical.<br/><br/>De quoi la matière est-elle constituée ? Comment tient-elle ensemble ? Ce sont là les questions auxquelles la recherche en physique des hautes énergies tente de répondre. Cette recherche est conduite à deux niveaux en constante interaction. D?une part, des modèles théoriques sont élaborés pour tenter de comprendre et de décrire les observations. Ces dernières, d?autre part, sont réalisées au moyen de collisions à haute énergie de particules élémentaires. C?est ainsi que l?on a pu mettre en évidence l?existence de quatre forces fondamentales et de 24 constituants élémentaires, classés en « quarks » et « leptons ». Il s?agit là de l?une des plus belles réussites du modèle en usage aujourd?hui, appelé « Modèle Standard ». Il est une observation fondamentale que le Modèle Standard peine cependant à expliquer, c?est la disparition quasi complète de l?anti-matière (le « négatif » de la matière). Au niveau fondamental, cela doit correspondre à une asymétrie entre particules (constituants de la matière) et antiparticules (constituants de l?anti-matière). On l?appelle l?asymétrie (ou violation) CP. Bien qu?incluse dans le Modèle Standard, cette asymétrie n?est que partiellement prise en compte, semble-t-il. En outre, son origine est inconnue. D?intenses recherches sont donc aujourd?hui entreprises pour mettre en lumière cette asymétrie. L?expérience Belle, au Japon, en est une des pionnières. Belle étudie en effet les phénomènes physiques liés à une famille de particules appelées les « mésons B », dont on sait qu?elles sont liées de près à l?asymétrie CP. C?est dans le cadre de cette recherche que se place cette thèse. Nous avons étudié une propriété remarquable du méson B neutre : l?oscillation de ce méson avec son anti-méson. Cette particule est de se désintégrer pour donner l?antiparticule associée. Il est clair que cette oscillation est rattachée à l?asymétrie CP. Nous avons ici déterminé avec une précision encore inégalée la fréquence de cette oscillation. La méthode utilisée consiste à caractériser une paire de mésons B à l?aide de leur désintégration comprenant un lepton chacun. Une plus grande précision est obtenue en recherchant également une particule appelée le pion, et qui provient de la désintégration d?un des mésons. Outre l?intérêt de ce phénomène oscillatoire en lui-même, cette mesure permet d?affiner, directement ou indirectement, le Modèle Standard. Elle pourra aussi, à terme, aider à élucider le mystère de l?asymétrie entre matière et anti-matière.
Resumo:
Résumé Dans le rein, la vasopressine possède un rôle essentiel dans la régulation fine du transport d'eau et participe au contrôle de la réabsorption du sodium. Cette action est conduite par l'activation du récepteur à la vasopressine V2R situé dans l'anse de Henle, dans le tubule connecteur et dans le canal collecteur du néphron des rongeurs et conduit à la formation d'AMPc entraînant un mécanisme d'action caractérisé par deux phases distinctes. Le premier effet de la vasopressine est non génomique et a lieu rapidement après l'activation du récepteur, la deuxième phase est plus tardive et possède la caractéristique de moduler la transcription d'un réseau de gènes. Parmi ces gènes, plusieurs sont directement impliqués dans le transport d'eau et de sodium, comme l'Aqp2 et 3, ENaC et la Na,K-ATPase. L'identification des effets de la voie de signalisation de la vasopressine représente un point crucial pour la compréhension des mécanismes moléculaires de la réabsorption de l'eau et du sodium dans le néphron. L'analyse en série de l'expression de gènes (SAGE) réalisée en 2001 dans notre laboratoire a permis de caractériser le transcriptome dépendant de la vasopressine dans la lignée cellulaire mpkCCDc14,a dérivée du canal collecteur cortical (CCD) de souris. Deux des transcrits induits par la vasopressine (VIT) ont fait l'objet des études de ce travail de thèse. Le premier est VIT32 (Vasopressin induced transcript 32) qui code pour une protéine ne possédant aucune homologie avec des domaines protéiques dont la fonction est connue. Dans le système d'expression de l'ovocyte de Xenopus laevis, VIT32 induit la maturation des ovocytes et diminue le courant sensible à l'amiloride de manière dépendante de la voie des MAPK. Dans les mpkCCDc14, l'inhibition de la voie des MAPK diminue le courant sodique en diminuant l'activité de la Na,K-ATPase, mais sans modifier le courant d'ENaC. Ainsi la voie de signalisation des MAPK peut avoir des cibles différentes suivant le système dans lequel elle est étudiée. C'est pourquoi nous avons décidé de poursuivre l'étude de VIT32 dans un contexte physiologique en créant une souris dépourvue du gène codant pour VIT32 de manière conditionnelle (conditional knockout). La première partie de cette thèse a donc consisté à générer cette souris. Le deuxième transcrit induit par la vasopressine qui a été étudié dans cette thèse est RGS2 (Regulator of G protein Signaling 2). In vitro, il a été montré que RGS2 inhibe des voies de signalisation dépendantes de récepteurs couplés à des protéines Gq et Gs. Dans notre étude, nous avons montré que dans le néphron de rein de souris, RGS2 est colocalisé avec V2R. In vivo, la vasopressine sécrétée lors d'une restriction en eau imposée à des souris augmente l'expression de RGS2. De plus, l'accumulation d'AMPc engendrée par l'action de la vasopressine sur les canaux collecteurs est significativement plus grande chez les souris dépourvues de RGS2 (rgs2 -/-). Cette induction de la signalisation de la vasopressine est corrélée à une augmentation de la réabsorption d'eau chez les souris rgs2 -/-. Ainsi RGS2 serait impliqué dans le rétrocontrôle négatif de la voie de signalisation de la vasopressine. Abstract In the kidney, vasopressin plays a key role in the control of water balance and participates in salt reabsorption. These actions are induced by the activation of V2 vasopressin receptor (V2R) located in the loop of Henle, in the connecting tubule and in the collecting duct leading to an increase in intracellular cAMP levels. The V2R-mediated vasopressin action elicits a rapid, non-genomic effect, during which water and salt reabsorption is rapidly increased and a late or genomic effect characterised by the long-term regulation of water and salt reabsorption through the transcriptional activation of a gene network that includes Aqp2, Aqp3, ENaC and Na,K-ATPase. Serial analysis of gene expression (SAGE) performed in 2001 in our laboratory characterised the vasopressin induced transcripts (VIT) in the mpkCCDc14 cell line. Two of them are studied in this thesis. The first one is VIT32 (Vasopressin induced transcript 32) that encodes a protein that has no homology with any protein domain of known function. In the Xenopus laevis oocyte, VIT32 induces oocyte maturation and downregulates the ENaC amiloride sensitive current via the activation of the MAPK pathway. In mpkCCDc14 cell line, the MAPK pathway inhibition leads to a decrease of Na,K-ATPase activity without affecting ENaC current. Therefore, the MAPK pathway can act on different targets depending on the cellular context. Thus, we decided to investigate the function of VIT32 in its physiological environment by performing a conditional knockout mouse of VIT32. The first part of this thesis consisted in generating this mouse. The second studied vasopressin induced transcript is RGS2 (Regulator of G protein Signaling 2). In vitro, RGS2 has been shown to inhibit Gq and Gs protein-coupled receptor pathway. In our study we show that RGS2 is co-localized with V2R in the mouse nephron. In vivo, vasopressin secreted during water restriction up-regulates RGS2 expression. Moreover, vasopressin-dependant accumulation of CAMP is significantly increased in the cortical collecting duct of RGS2 knockout mice. This increase is correlated with an increase in water reabsorption. RGS2 could be involved in the negative feedback regulation of V2R signalling. Résumé tout public Le corps humain est composé d'environ 60% d'eau répartie à l'intérieur et à l'extérieur des cellules de notre organisme. Les cellules, unités fondamentales du vivant, puisent l'oxygène et les nutriments indispensables à leur fonctionnement dans le liquide extracellulaire. La composition du milieu doit être constante, car les variations peuvent perturber considérablement et parfois fatalement la fonction des cellules. Ainsi les organismes pluricellulaires ont développé des mécanismes permettant de contrôler la constance du milieu extracellulaire afin de maintenir l'état d'équilibre nommé homéostasie. Le rein joue un rôle majeur dans cette homéostasie grâce à sa capacité de réabsorber l'eau et les solutés en fonction des besoins de l'organisme. Cette fonction du rein est régulée par différentes hormones comme la vasopressine, qui permet de contrôler la réabsorption fine de l'eau et des solutés. Dans leurs membranes, les cellules possèdent des récepteurs leur permettant de répondre aux signaux extracellulaires comme le sont entre autres les hormones. Ainsi les cellules sensibles à la vasopressine possèdent un récepteur nommé V2R qui permet d'intégrer les signaux de la vasopressine en déclenchant tout une cascade d'événements conduisant à une modification de l'expression de certaines protéines impliquées directement ou non dans la réabsorption de l'eau et des solutés. Une étude précédente élaborée au sein de notre laboratoire a permis de répertorier les protéines dont l'expression est augmentée par de la vasopressine. Deux de ces protéines ont fait l'objet des études de cette thèse. La première protéine induite par la vasopressine est VIT32 (Vasopressin induced transcript 32). Cette protéine est entre autres impliquée dans la réabsorption du sodium, mais la fonction précise de VIT32 dans ce transport n'a pas pu être déterminée. Une des approches possibles pour l'étude de la fonction d'une protéine est de supprimer son expression chez la souris et d'étudier les conséquences de son absence. Ces souris sont appelées des souris knockout, puisque la protéine en question ne peut plus agir. La première partie de cette thèse a donc consisté à générer une souris dépourvue du gène de VIT32. La deuxième protéine étudiée est RGS2 (Regulator of G protein Signaling 2). Cette protéine inhibe certaines voies de signalisation activées par différentes hormones. Dans cette partie du travail de thèse, nous avons pu mettre en évidence que RGS2 agit comme un inhibiteur de la voie de signalisation de la vasopressine. En modifiant cette signalisation, RGS2 serait donc un médiateur du contrôle de la réabsorption d'eau dans les cellules du rein sensibles à la vasopressine.
Resumo:
The purpose of this dissertation is to better understand how individual employees? values and personality traits influence their attitudes toward market orientation; how such attitudes impact their market-oriented behaviors; and how in turn, these behaviors lead to their superior individual performance. To investigate these relationships, an empirical study was conducted in the French speaking part of Switzerland and data were collected from a sample of service firms? employees from diverse departments and hierarchical levels. To a large extent, the results support the hypothesis of a hierarchical chain moving from value / personality to attitude to behavior to individual performance in relation to market orientation. Le sujet de cette thèse de doctorat est de mieux comprendre comment les valeurs et les traits de personnalité des employés influencent leurs attitudes envers l'orientation vers le marché ; comment ces attitudes ont un effet sur les comportements orientés vers le marché de ces employés et enfin, comment ces comportements conduisent à une meilleure performance individuelle. Afin d'étudier ces relations, une enquête a été conduite en Suisse romande et des données ont été collectées auprès d'un échantillon d'employés d'entreprises de service de différents départements et niveaux hiérarchiques. Les résultats sont concordants avec l'hypothèse d'une chaîne causale allant des valeurs / traits de personnalité aux attitudes, aux comportements et finalement à la performance individuelle dans le contexte de l'orientation vers le marché.
Resumo:
Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.
Resumo:
In the present study, a 2-year N rate response experiment was conducted in different fields to monitor NO3-N soil profiles, N accumulation by the crop and final crop performance, in order to assess if soil NO3-N at pre-sidedressing (Pre-Sidedress Soil Nitrate Test, PSNT) is a reliable indicator for soil N availability for corn in the irrigated area served by canal d’Urgell (Lleida, Spain), and if the test can be used to separate responsive fields from non-responsive fields to sidedress N fertilizer applications. Preliminary soil N availability (N sidedress fertilizer rate + PSNT) critical levels to identify fields that need supplementary N fertilizer applications were established at ca. 300 and 210 kg NO3-N·ha–1, for PSNTrooting–zone and PSNT0–30 cm, respectively (for a yield goal of 14 t grain·ha–1).
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
Dans cette thèse, nous étudions les évolutions des systèmes d'information. Nous nous intéressons plus particulièrement à l'étude des facteurs déclencheurs d'évolution, ce qu'ils représentent et comment ils permettent d'en apprendre d'avantage sur le cycle de vie des systèmes d'information. Pour ce faire, nous avons développé un cadre conceptuel pour l'étude des évolutions qui tient compte non seulement des facteurs déclencheurs d'évolution, mais également de la nature des activités entreprises pour évoluer. Nous avons suivi une approche Design Science pour la conception de ce cadre conceptuel. Selon cette approche, nous avons développé itérativement le cadre conceptuel en l'instanciant puis en l'évaluant afin de raffiner sa conception. Ceci nous a permis de faire plusieurs contributions tant pratiques que théoriques. La première contribution théorique de cette recherche est l'identification de 4 facteurs principaux déclenchant les évolutions. Ces facteurs sont des éléments issus de domaines généralement étudiés séparément. Le cadre conceptuel les rassemble dans un même outil pour l'étude des évolutions. Une autre contribution théorique est l'étude du cycle de vie des systèmes selon ces facteurs. En effet, l'utilisation répétée du cadre conceptuel pour la qualification des évolutions met en lumière les principales motivations des évolutions lors de chaque étape du cycle de vie. En comparant les évolutions de plusieurs systèmes, il devient possible de mettre en évidence des modèles spécifiques d'évolution des systèmes. Concernant les contributions pratiques, la principale concerne le pilotage de l'évolution. Pour un gestionnaire de système d'information, l'application du cadre conceptuel permet de connaître précisément l'allocation réelle des ressources pour une évolution ainsi que la localisation du système dans son cycle de vie. Le cadre conceptuel peut donc aider les gestionnaires dans la planification et la stratégie d'évolution du système. Les modèles d'évolution, identifiés suite à l'application du cadre conceptuel, sont également une aide précieuse pour définir la stratégie de pilotage et les activités à entreprendre lors de la planification des évolutions. Finalement, le cadre conceptuel a fourni les bases nécessaires à l'élaboration d'un tableau de bord pour le suivi du cycle de vie et le pilotage de l'évolution des systèmes d'information.
Resumo:
Les pistolets à impulsion électrique (PIE) sont de plus en plus fréquemment utilisés en Europe ces dernières années, le modèle le plus connu étant le Taser®. Les connaissances scientifiques concernant les PIE et leurs effets potentiels restent toutefois limitées. Nous avons conduit une revue de littérature afin d'évaluer les implications potentielles de leur utilisation en termes de sécurité, de morbidité et de mortalité. Une exposition unique chez un individu sain peut généralement être considérée comme peu dangereuse. Les sujets à risque de complications sont les individus exposés à de multiples décharges, les personnes sous l'influence de substances psychoactives, ceux qui montrent des signes d'agitation extrême, ou encore les individus présentant des comorbidités médicales. L'éventail des complications pouvant survenir lors de leur exposition est large et inclut les lésions provoquées par les impacts des électrodes, les traumatismes liés à la chute induite par la paralysie transitoire ou des complications cardiovasculaires. Dans ce contexte, les personnes exposées doivent être examinées attentivement, et les éventuelles lésions traumatiques doivent être exclues. The use of electronic control devices (ECD), such as the Taser®, has increased in Europe over the past decade. However, scientific data concerning the potential health impact of ECD usage remains limited. We reviewed the scientific literature in order to evaluate the safety, mortality, and morbidity associated with ECD use. Exposure of a healthy individual to a single ECD electroshock can be considered generally safe. Complications can, however, occur if the patient is subject to multiple electroshocks, if the patient has significant medical comorbidities, or when exposure is associated with drug abuse or agitated delirium. The broad spectrum of potential complications associated with ECD exposure includes direct trauma caused by the ECD electrodes, injuries caused by the transient paralysis-induced fall, and cardiovascular events. An ECD-exposed patient requires careful examination during which traumatic injuries are actively sought out.
Resumo:
La polymyalgia rheumatica (PMR) est une pathologie relativement fré quente affectant presque exclusivement des personnes de plus de 50 ans, se manifestant principalement par des douleurs des ceintures scapulaire et pelvienne, et une raideur matinale. Le diagnostic de PMR repose sur la présentation clinique caractéristique, l'élévation des paramètres inflammatoires biologiques (VS et CRP), une valeur de procalcitonine classiquement normale, la réponse rapide aux corticostéroïdes et l'exclusion de pathologies confondantes. Une artérite gigantocellulaire (AGC) sousjacente ou une autre affection doivent être suspectées chez des patients restant symptomatiques ou conservant des paramètres inflammatoires élevés malgré une corticothé rapie bien conduite. Dans la phase de sevrage des corticostéroïdes, une récidive des symptômes et une réascension des marqueurs inflammatoires peuvent survenir chez 25 à 50% des patients. En cas de récidives cliniques successives lors du sevrage de la corticothérapie, un traitement immunosuppresseur de fond à visée d'épargne des corticostéroïdes peut être considéré, en particulier si des effets secondaires liés à la corticothérapie sont constatés.