999 resultados para méthodes qualitatives


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Une phase hyperalgique dans les 4 heures post-examen arthrographique est maintenant reconnue dans la littérature. Comment s'en amender ? Nous comparonsl'absence d'anesthésique à l'adjonction de deux différents anesthésiques locaux intra-articulaires(rapidocaïne/bupivacaïne) lors d'arthro-TDM/IRM. Matériels et méthodes: Après approbation du comité d'éthique, étude prospective chez 150 patients répartis aléatoirement en trois groupes : 1) sans anesthésique intra-articulaire, 2)rapidocaïne 1%, 3) bupivacaïne 0,25%. Recueil du score EVA (0-10) aux 5 temps suivants : avant injection (score de base), puis 20 minutes, 4 heures, 24 heureset 7 jours après la procédure. Résultats: Le pic douloureux maximal se trouve à 4h après la procédure (idem littérature). La douleur augmente en moyenne de 1,60 unités 4h après la procédure pour legroupe 1, de 1,22 unités pour le groupe 2 et de 0,29 unités pour le groupe 3. La différence entre les groupes 1 et 3 est statistiquement significative (p=0,002 -Tests ANOVA et de Sidak). Elle n'est pas significative entre les groupes 1 et 2 (p=0,536). La comparaison rapidocaïne et bupivacaïne est moins concluante(p=0,065). Conclusion: L'adjonction de bupivacaïne intra-articulaire devrait être réalisée lors d'examens arthrographiques, surtout afin d'améliorer le confort du patient mais aussi pourfavoriser son immobilité lors de l'acquisition des images TDM ou IRM .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse Enjeux et contexte: L'hyponatrémie est un trouble électrolytique fréquent et associé à un pronostic défavorable dans de nombreuses affections card iovascu lai res (1-5), pour lesquelles il est un marqueur de l'activation neurohumorale (6). Sa valeur pronostique chez les patients se présentant avec une emboîie pulmonaire était jusque là inconnue ; elle fait l'objet de la présente étude.Objectifs: Examiner chez les patients hospitalisés pour une embolie pulmonaire, les associations entre hyponatrémie et mortalité ainsi qu'avec le taux de réhospitalisation. Méthodes: Nous avons étudié les données de 13728 patients avec un diagnostic principal d'embolie pulmonaire provenant de 185 hôpitaux en Pennsylvanie (janvier 2000 à novembre 2002.) Nous avons utilisé un modèle de régression logistique afin d'établir l'association indépendante entre le niveau de sodium lors de la présentation aux urgences et la mortalité ainsi que le taux de ^hospitalisation durant 30 jours. Nous avons ajusté pour les caractéristiques du patient (race, assurance, sévérité de la maladie, usage de la thrombolyse) et de l'hôpital (région, taille, avec ou sans médecins en formation.)Résultats principaux: Une hyponatrémie (sodium £ 135 mmol/l) était présente chez 2907 patients (21.1%). Les patients avec un sodium >135, 130-135, et <130 mmol/l avaient une mortalité cumulée à 30 jours de 8.0%, 13.6%, et 28.5% (P <0.001), et un taux de réadmission de 11.8%, 15.6%, et 19.3% (P <0.001), respectivement. Comparés aux patients avec un sodium >135 mmol/l, les odd ratios ajustés concernant la mortalité étaient significativement plus important pour les patients avec un sodium compris entre 130 et 135 mmol/l (OR 1.53, 95% Cl: 1.33-1.76) ou <130 mmol/l (OR 3.26, 95% Cl: 2.48-4.29). Les odd ratios ajustés concernant la réhospitalisation étaient également augmentés pour les patients présentant un sodium entre 130 et 135 mmol/l (OR 1.28, 95% Cl: 1.12-1.46) ou <130 mmol/l (OR 1.44, 95% Cl: 1.02-2.02). Conclusions et perspectives: L'hyponatrémie est fréquente chez les patients se présentant avec une embolie pulmonaire, de plus elle est un prédicateur indépendant de la mortalité à court terme, ainsi que du taux de réhospitalisation. La natrémie est une information généralement disponible lors de l'établissement d'un pronostic. Bien que cette association soit compatible avec une activation neurohumorale, nous ne pouvons pas attester des mécanismes impliqués, du fait que notre étude ne donne pas d'informations sur d'autres étapes de la physiologie de cette association.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Optimiser la visualisation du plexus brachial dans le cadre d'un examen par résonance magnétique (IRM), avec prise en compte des paramètres techniques. Matériels et méthodes: L'IRM est devenue la technique de choix pour explorer le plexus brachial en raison de ses capacités techniques (rapport signal/bruit, contraste). Pour cela, nousavons optimisé d'une part des séquences de routine et d'autre part des séquences 3D, dans le but de différencier les structures nerveuses et les tissusenvironnants. Une analyse technique des examens sera réalisée sur la base d'un échantillon de patients de morphotypes variés. Résultats: La morphologie de la région étudiée, différente d'un patient à l'autre, influence la qualité de l'examen. Effectivement, l'épaisseur de tissu (graisseux oumusculaire) présent au niveau du plexus brachial et plus particulièrement celle qui sépare l'air ambiant de l'air présent dans les poumons , demande certainsajustements techniques tels que : shimming, plan d'acquisition et reconstruction issue des séquences 3D. Conclusion: Dans le cadre de cet examen peu fréquent, le manipulateur joue un rôle important tant par les ajustements techniques que par ses connaissances anatomiques,afin de produire une imagerie du plexus brachial de haute précision et de grande qualité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME Durant les dernières années, les méthodes électriques ont souvent été utilisées pour l'investigation des structures de subsurface. L'imagerie électrique (Electrical Resistivity Tomography, ERT) est une technique de prospection non-invasive et spatialement intégrée. La méthode ERT a subi des améliorations significatives avec le développement de nouveaux algorithmes d'inversion et le perfectionnement des techniques d'acquisition. La technologie multicanale et les ordinateurs de dernière génération permettent la collecte et le traitement de données en quelques heures. Les domaines d'application sont nombreux et divers: géologie et hydrogéologie, génie civil et géotechnique, archéologie et études environnementales. En particulier, les méthodes électriques sont souvent employées dans l'étude hydrologique de la zone vadose. Le but de ce travail est le développement d'un système de monitorage 3D automatique, non- invasif, fiable, peu coûteux, basé sur une technique multicanale et approprié pour suivre les variations de résistivité électrique dans le sous-sol lors d'événements pluvieux. En raison des limitations techniques et afin d'éviter toute perturbation physique dans la subsurface, ce dispositif de mesure emploie une installation non-conventionnelle, où toutes les électrodes de courant sont placées au bord de la zone d'étude. Le dispositif le plus approprié pour suivre les variations verticales et latérales de la résistivité électrique à partir d'une installation permanente a été choisi à l'aide de modélisations numériques. Les résultats démontrent que le dispositif pôle-dipôle offre une meilleure résolution que le dispositif pôle-pôle et plus apte à détecter les variations latérales et verticales de la résistivité électrique, et cela malgré la configuration non-conventionnelle des électrodes. Pour tester l'efficacité du système proposé, des données de terrain ont été collectées sur un site d'étude expérimental. La technique de monitorage utilisée permet de suivre le processus d'infiltration 3D pendant des événements pluvieux. Une bonne corrélation est observée entre les résultats de modélisation numérique et les données de terrain, confirmant par ailleurs que le dispositif pôle-dipôle offre une meilleure résolution que le dispositif pôle-pôle. La nouvelle technique de monitorage 3D de résistivité électrique permet de caractériser les zones d'écoulement préférentiel et de caractériser le rôle de la lithologie et de la pédologie de manière quantitative dans les processus hydrologiques responsables d'écoulement de crue. ABSTRACT During the last years, electrical methods were often used for the investigation of subsurface structures. Electrical resistivity tomography (ERT) has been reported to be a useful non-invasive and spatially integrative prospecting technique. The ERT method provides significant improvements, with the developments of new inversion algorithms, and the increasing efficiency of data collection techniques. Multichannel technology and powerful computers allow collecting and processing resistivity data within few hours. Application domains are numerous and varied: geology and hydrogeology, civil engineering and geotechnics, archaeology and environmental studies. In particular, electrical methods are commonly used in hydrological studies of the vadose zone. The aim of this study was to develop a multichannel, automatic, non-invasive, reliable and inexpensive 3D monitoring system designed to follow electrical resistivity variations in soil during rainfall. Because of technical limitations and in order to not disturb the subsurface, the proposed measurement device uses a non-conventional electrode set-up, where all the current electrodes are located near the edges of the survey grid. Using numerical modelling, the most appropriate arrays were selected to detect vertical and lateral variations of the electrical resistivity in the framework of a permanent surveying installation system. The results show that a pole-dipole array has a better resolution than a pole-pole array and can successfully follow vertical and lateral resistivity variations despite the non-conventional electrode configuration used. Field data are then collected at a test site to assess the efficiency of the proposed monitoring technique. The system allows following the 3D infiltration processes during a rainfall event. A good correlation between the results of numerical modelling and field data results can be observed since the field pole-dipole data give a better resolution image than the pole-pole data. The new device and technique makes it possible to better characterize the zones of preferential flow and to quantify the role of lithology and pedology in flood- generating hydrological processes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les progrès de la thérapie antirétrovirale ont transformé l'infection par le VIH d'une condition inévitablement fatale à une maladie chronique. En dépit de ce succès, l'échec thérapeutique et la toxicité médicamenteuse restent fréquents. Une réponse inadéquate au traitement est clairement multifactorielle et une individualisation de la posologie des médicaments qui se baserait sur les facteurs démographiques et génétiques des patients et sur les taux sanguins totaux, libres et/ou cellulaires des médicaments pourrait améliorer à la fois l'efficacité et la tolérance de la thérapie, cette dernière étant certainement un enjeu majeur pour un traitement qui se prend à vie.L'objectif global de cette thèse était de mieux comprendre les facteurs pharmacocinétiques (PK) et pharmacogénétiques (PG) influençant l'exposition aux médicaments antirétroviraux (ARVs) nous offrant ainsi une base rationnelle pour l'optimisation du traitement antiviral et pour l'ajustement posologique des médicaments chez les patients VIH-positifs. Une thérapie antirétrovirale adaptée au patient est susceptible d'augmenter la probabilité d'efficacité et de tolérance à ce traitement, permettant ainsi une meilleure compliance à long terme, et réduisant le risque d'émergence de résistance et d'échec thérapeutique.A cet effet, des méthodes de quantification des concentrations plasmatiques totales, libres et cellulaires des ARVs ainsi que de certains de leurs métabolites ont été développées et validées en utilisant la chromatographie liquide coupée à la spectrométrie de masse en tandem. Ces méthodes ont été appliquées pour la surveillance des taux d'ARVs dans diverses populations de patients HIV-positifs. Une étude clinique a été initiée dans le cadre de l'étude VIH Suisse de cohorte mère-enfant afin de déterminer si la grossesse influence la cinétique des ARVs. Les concentrations totales et libres du lopînavir, de l'atazanavir et de la névirapine ont été déterminées chez les femmes enceintes suivies pendant leur grossesse, et celles-ci ont été trouvées non influencées de manière cliniquement significative par la grossesse. Un ajustement posologique de ces ARVs n'est donc pas nécessaire chez les femmes enceintes. Lors d'une petite étude chez des patients HIV- positifs expérimentés, la corrélation entre l'exposition cellulaire et plasmatique des nouveaux ARVs, notamment le raltégravir, a été déterminée. Une bonne corrélation a été obtenue entre taux plasmatiques et cellulaires de raltégravir, suggérant que la surveillance des taux totaux est un substitut satisfaisant. Cependant, une importante variabilité inter¬patient a été observée dans les ratios d'accumulation cellulaire du raltégravir, ce qui devrait encourager des investigations supplémentaires chez les patients en échec sous ce traitement. L'efficacité du suivi thérapeutique des médicaments (TDM) pour l'adaptation des taux d'efavirenz chez des patients avec des concentrations au-dessus de la cible thérapeutique recommandée a été évaluée lors d'une étude prospective. L'adaptation des doses d'efavirenz basée sur le TDM s'est montrée efficace et sûre, soutenant l'utilisation du TDM chez les patients avec concentrations hors cible thérapeutique. L'impact des polymorphismes génétiques des cytochromes P450 (CYP) 2B6, 2A6 et 3A4/5 sur la pharmacocinétique de l'efavirenz et de ces métabolites a été étudié : un modèle de PK de population intégrant les covariats génétiques et démographiques a été construit. Les variations génétiques fonctionnelles dans les voies de métabolisation principales (CYP2B6) et accessoires {CYP2A6et 3A4/S) de l'efavirenz ont un impact sur sa disposition, et peuvent mener à des expositions extrêmes au médicament. Un? ajustement des doses guidé par le TDM est donc recommandé chez ces patients, en accord avec les polymorphismes génétiques.Ainsi, nous avons démonté qu'en utilisant une approche globale tenant compte à la fois des facteurs PK et PG influençant l'exposition aux ARVs chez les patients infectés, il est possible, si nécessaire, d'individualiser la thérapie antirétrovirale dans des situations diverses. L'optimisation du traitement antirétroviral contribue vraisemblablement à une meilleure efficacité thérapeutique à iong terme tout en réduisant la survenue d'effets indésirables.Résumé grand publicOptimisation de la thérapie antirétrovirale: approches pharmacocinétiques et pharmacogénétiquesLes progrès effectués dans le traitement de l'infection par le virus de llmmunodéficienoe humaine acquise (VIH) ont permis de transformer une affection mortelle en une maladie chronique traitable avec des médicaments de plus en plus efficaces. Malgré ce succès, un certain nombre de patients ne répondent pas de façon optimale à leur traitement etyou souffrent d'effets indésirables médicamenteux entraînant de fréquentes modifications dans leur thérapie. Il a été possible de mettre en évidence que l'efficacité d'un traitement antirétroviral est dans la plupart des cas corrélée aux concentrations de médicaments mesurées dans le sang des patients. Cependant, le virus se réplique dans la cellule, et seule la fraction des médicaments non liée aux protéines du plasma sanguin peut entrer dans la cellule et exercer l'activité antirétrovirale au niveau cellulaire. Il existe par ailleurs une importante variabilité des concentrations sanguines de médicament chez des patients prenant pourtant la même dose de médicament. Cette variabilité peut être due à des facteurs démographiques et/ou génétiques susceptibles d'influencer la réponse au traitement antirétroviral.Cette thèse a eu pour objectif de mieux comprendre les facteurs pharmacologiques et génétiques influençant l'efficacité et ta toxicité des médicaments antirétroviraux, dans le but d'individualiser la thérapie antivirale et d'améliorer le suivi des patients HIV-positifs.A cet effet, des méthodes de dosage très sensibles ont été développées pour permettre la quantification des médicaments antirétroviraux dans le sang et les cellules. Ces méthodes analytiques ont été appliquées dans le cadre de diverses études cliniques réalisées avec des patients. Une des études cliniques a recherché s'il y avait un impact des changements physiologiques liés à la grossesse sur les concentrations des médicaments antirétroviraux. Nous avons ainsi pu démontrer que la grossesse n'influençait pas de façon cliniquement significative le devenir des médicaments antirétroviraux chez les femmes enceintes HIV- positives. La posologie de médicaments ne devrait donc pas être modifiée dans cette population de patientes. Par ailleurs, d'autres études ont portés sur les variations génétiques des patients influençant l'activité enzymatique des protéines impliquées dans le métabolisme des médicaments antirétroviraux. Nous avons également étudié l'utilité d'une surveillance des concentrations de médicament (suivi thérapeutique) dans le sang des patients pour l'individualisation des traitements antiviraux. Il a été possible de mettre en évidence des relations significatives entre l'exposition aux médicaments antirétroviraux et l'existence chez les patients de certaines variations génétiques. Nos analyses ont également permis d'étudier les relations entre les concentrations dans le sang des patients et les taux mesurés dans les cellules où le virus HIV se réplique. De plus, la mesure des taux sanguins de médicaments antirétroviraux et leur interprétation a permis d'ajuster la posologie de médicaments chez les patients de façon efficace et sûre.Ainsi, la complémentarité des connaissances pharmacologiques, génétiques et virales s'inscrit dans l'optique d'une stratégie globale de prise en charge du patient et vise à l'individualisation de la thérapie antirétrovirale en fonction des caractéristiques propres de chaque individu. Cette approche contribue ainsi à l'optimisation du traitement antirétroviral dans la perspective d'un succès du traitement à long terme tout en réduisant la probabilité des effets indésirables rencontrés. - The improvement in antirétroviral therapy has transformed HIV infection from an inevitably fatal condition to a chronic, manageable disease. However, treatment failure and drug toxicity are frequent. Inadequate response to treatment is clearly multifactorial and, therefore, dosage individualisation based on demographic factors, genetic markers and measurement of total, free and/or cellular drug level may increase both drug efficacy and tolerability. Drug tolerability is certainly a major issue for a treatment that must be taken indefinitely.The global objective of this thesis aimed at increasing our current understanding of pharmacokinetic (PK) and pharmacogenetic (PG) factors influencing the exposition to antirétroviral drugs (ARVs) in HIV-positive patients. In turn, this should provide us with a rational basis for antiviral treatment optimisation and drug dosage adjustment in HIV- positive patients. Patient's tailored antirétroviral regimen is likely to enhance treatment effectiveness and tolerability, enabling a better compliance over time, and hence reducing the probability of emergence of viral resistance and treatment failure.To that endeavour, analytical methods for the measurement of total plasma, free and cellular concentrations of ARVs and some of their metabolites have been developed and validated using liquid chromatography coupled with tandem mass spectrometry. These assays have been applied for the monitoring of ARVs levels in various populations of HIV- positive patients. A clinical study has been initiated within the frame of the Mother and Child Swiss HIV Cohort Study to determine whether pregnancy influences the exposition to ARVs. Free and total plasma concentrations of lopinavir, atazanavir and nevirapine have been determined in pregnant women followed during the course of pregnancy, and were found not influenced to a clinically significant extent by pregnancy. Dosage adjustment for these drugs is therefore not required in pregnant women. In a study in treatment- experienced HIV-positive patients, the correlation between cellular and total plasma exposure to new antirétroviral drugs, notably the HIV integrase inhibitor raltegravir, has been determined. A good correlation was obtained between total and cellular levels of raltegravir, suggesting that monitoring of total levels are a satisfactory. However, significant inter-patient variability was observed in raltegravir cell accumulation which should prompt further investigations in patients failing under an integrase inhibitor-based regimen. The effectiveness of therapeutic drug monitoring (TDM) to guide efavirenz dose reduction in patients having concentrations above the recommended therapeutic range was evaluated in a prospective study. TDM-guided dosage adjustment of efavirenz was found feasible and safe, supporting the use of TDM in patients with efavirenz concentrations above therapeutic target. The impact of genetic polymorphisms of cytochromes P450 (CYP) 2B6, 2A6 and 3A4/5 on the PK of efavirenz and its metabolites was studied: a population PK model was built integrating both genetic and demographic covariates. Functional genetic variations in main (CYP2B6) and accessory (2A6, 3A4/5) metabolic pathways of efavirenz have an impact on efavirenz disposition, and may lead to extreme drug exposures. Dosage adjustment guided by TDM is thus required in those patients, according to the pharmacogenetic polymorphism.Thus, we have demonstrated, using a comprehensive approach taking into account both PK and PG factors influencing ARVs exposure in HIV-infected patients, the feasibility of individualising antirétroviral therapy in various situations. Antiviral treatment optimisation is likely to increase long-term treatment success while reducing the occurrence of adverse drug reactions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Evaluer la faisabilité et l'évolution de la pratique ambulatoire des procédures endovasculaires pour traitement des artériopathies des membres inférieurs . Matériels et méthodes: 89 patients ont bénéficié d'une procédure endovasculaire ambulatoire (séjour hospitalier de moins de 24 heures) pour traitement d'une artériopathie desmembres inférieurs entre janvier 2005 et décembre 2005. Sont étudiés, le stade de l'artériopathie, la complexité des lésions, le type de procédure, lesco-morbidités, les complications, la reconversion en hospitalisation. Résultats: La majorité des patients présentait une artériopathie de stade de II (95%). Les lésions des artères fémorales superficielles représentaient 45% des procédures etcelles des axes iliaques 41%. La majorité des lésions étaient des sténoses (83%) de TASC a ou B. Cependant, l'évolution au court du temps montre que deslésions de plus en plus complexes étaient traitées en ambulatoire. La taille de l'introducteur était de 6 F dans 82% des cas. Le succès technique était de 98% et letaux des complications de 4,2%. Le taux de reconversion en hospitalisation était de 5,2%. Conclusion: Les procédures endovasculaires pour artériopathies des membres inférieurs de stade II peuvent être faites en ambulatoire y compris pour des lésions complexesavec un taux de complication et un taux de reconversion faibles.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'hétérotopie sous-corticale en bandes ou double-cortex est une malformation cérébrale causée par une interruption de la migration des neurones du néocortex pendant sa formation. La souris HeCo est un modèle murin de cette affection, caractérisée par un amas de neurones corticaux dans la substance blanche sous-corticale. Les signes cliniques de cette maladie sont le plus souvent une épilepsie réfractaire, un retard développemental et mental. Chez l'homme, l'hétérotopie se trouve en partie en profondeur du cortex somatotopique moteur et sensitif et semble participer à leurs fonctions. L'IRM fonctionnelle a montré lors d'une tâche motrice (taper des doigts), l'activation en plus du cortex moteur controlatéral du cortex hétérotopique sous-jacent. La pathogenèse des malformations corticales est toujours mal comprise, c'est pourquoi il est important d'avoir plusieurs modèles animaux. Jusqu'il a peu, il n'existait que le rat TISH, découvert en 1997, dont la génétique n'est pas connue à ce jour. La souris HeCo est un nouveau modèle animal de malformation corticale dont le gène muté impliquant une protéine associée aux microtubules a été découvert récemment. Elle partage avec les cas humains un seuil épileptique abaissé et un certain retard développemental. Objectif : Déterminer si le cortex hétérotopique de la souris HeCo est activé lors d'une tâche sensitive (exploration de l'environnement à l'aide des vibrisses du museau). Méthode : Chez la souris, les vibrisses sont des organes sensitifs essentiels dans l'exploration de l'environnement. Pour déterminer si le cortex hétérotopique est actif lors d'une tâche sensitive, on utilisera donc un exercice de découverte d'une cage enrichie en stimulus. Afin de visualiser les régions du cerveau actives, on utilisera plusieurs méthodes: l'autoradiographie ([14C]2- deoxyglucose, 2-DG) et l'immunohistochimie c-Fos. Le 2-DG est un analogue du glucose qui se fixe dans les régions cérébrales métaboliquement actives, ici impliquées dans la sensibilité. Il est injecté dans le péritoine de la souris à jeun avant l'exploration. Le contrôle négatif se fera en coupant les vibrisses d'un côté avant la tâche sensitive. A la fin de la tâche, on prélève des coupes du cerveau pour mesurer l'autoradioactivité. L'immunohistochimie c-Fos est réalisée sur les cerveaux de souris ayant effectué la même tâche sensitive et détecte une protéine d'activation neuronale. Afin de détecter une activation de l'hétérotopie à plus long terme, on utilisera la cytochrome oxydase, une enzyme qui met en évidence les régions contenant beaucoup de mitochondries, donc métaboliquement très actives. Résultats : La cytochrome oxydase a marqué de façon égale le cortex homotopique de la souris HeCo et le cortex des souris contrôle. Par ailleurs, chez le mutant, elle a montré un faible marquage dans la partie médiale de l'hétérotopie et des zones de marquage plus intenses dans sa partie latérale. L'autoradiographie 2-DG a montré un pattern classique d'activation du cortex homotopique du côté stimulé, avec une intensité plus marquée dans la couche IV. Du même côté, l'hétérotopie latérale montre une intensité similaire à celui de la couche IV. Du côté non stimulé, on note une intensité faible, tant dans le cortex homotopique que dans le cortex hétérotopique. L'immunohistochimie c-Fos a montré une nette différence entre l'hémisphère stimulé et l'hémisphère non stimulé dans la couche IV comme dans l'hétérotopie. Il existe, tant du côté stimulé que du côté non stimulé, un gradient dans l'hétérotopie, le marquage latéral étant du même ordre que dans la couche IV alors qu'il est moins intense médialement. Conclusion : l'hétérotopie corticale latérale, située en particulier sous le cortex somatosensoriel, semble traiter l'information périphérique controlatérale dans le même ordre que le cortex homotopique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif: La réparation de la valve mitrale constitue le traitement de choix pour restaurer ta fonction de celle-ci. Elle est actuellement reconnue pour garantir une bonne évolution à long terme. Dans le but de faciliter les décisions périopératoires, nous avons analysé nos patients afin de déterminer les facteurs de risque ayant affecté leur évolution. Méthodes: Nous avons étudié rétrospectivement 175 premiers patients consécutifs (âge moyen : 64 +/-10.4 ans ;113 hommes) qui ont subi une réparation primaire de la valve mitrale associée à toute autre intervention cardiaque entre 1986 et 1998. Les facteurs de risque influençant le taux de réopération et la survie à long terme ont été analysés de manière uni et multivariée. Résultats: La mortalité opératoire était de 3.4 % (6 décès, 0 -22 et jours post-opératoires). La mortalité tardive était de 9.1 % (16 décès, 3e-125e mois post-opératoires). Cinq patients ont dû être réopérés. L'analyse actuarielle selon Kaplan-Meier a montré une survie à 1 année de 96 +l-1 %, une survie à 5 ans de 88 +/- 3 % et une survie à 10 ans de 69 +/- 8 %. Après 1 année, la fraction de population sans réopération était de 99 %, elle était de 97 +/-2 % après 5 ans et de 88+/-6 % après 10 ans. L'analyse multivariée a montré qu' un stade NYHA III et IV résiduel ( p=0.001, RR 4.55, 95 % IC :1.85 -14.29), une mauvaise fraction d'éjection préopératoire(p=0.013, RR 1.09, 95 % IC 1.02 -1.18), ,une régurgitation mitrale d'origine fonctionnelle (p=0.018, RR 4.17, 95% IC 1.32-16.67) ainsi qu'une étiologie ischémique (p=0.049, RR 3.13, 95% IC 1.01-10.0) constituaient tous des prédicteurs indépendant de mortalité. Une régurgitation mitrale persistante au 7 e jour post-opératoire (p= 0.005, RR 4.55, 95 % IC :1.56 -20.0), un âge inférieur à 60 ans (p = 0.012, RR 8.7, 95 % IC 2.44 - 37.8) et l'absence d'anneau prothétique (p = 0.034, RR 4.76, 95 % IC 1.79-33.3) se sont tous révélés être des facteurs de risque indépendant de réopération. Conclusion: Les réparations mitrales sont accompagnées d'une excellente survie à long terme même si leur évolution peut être influencée négativement par de nombreux facteurs de risques periopératoires. Les risques de réopération sont plus élevés chez des patients jeunes présentant une régurgitation mitrale résiduelle et n'ayant pas bénéficié de la mise en place d'un anneau prothétique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Table des matières] 1. Résumé. 2. Introduction. 3. Méthodes. 4. Population. 5. Résultats (Tendances - Comparaison intercantonale - Caractéristiques sociodémographiques des résidentes vaudoises ayant interrompu leur grossesse en 2009 - Fécondité et recours antérieur à l'interruption de grossesse - Caractéristiques de l'interruption de grossesse). 6. Conclusions. Annexes. A1. Législation sur l'IG (emploi de la Mifépristone). A2. Formulaire de déclaration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Table des matières] 1. Résumé. 2. Introduction. 3. Méthodes. 4. Population. 5. Résultats. 5.1. Tendances (Taux de recours à l'interruption de grossesse - Rapport entre interruptions de grossesse et naissances vivantes). 5.2. Comparaison intercantonale. 5.3. Caractéristiques sociodémographiques des résidentes vaudoises ayant interrompu leur grossesse en 2010 (Age - Nationalité - Niveau de formation et activité principale - Etat civil et type de ménage). 5.4. Fécondité et recours antérieur à l'interruption de grossesse. 5.5. Caractéristiques de l'interruption de grossesse(Motif de l'IG - Age gestationnel - Lieu d'intervention - Type d'intervention). 6. Conclusions. 7. Bibliographie. 8. Annexes. A1. Emploi de la Mifépristone. Avis d'expert no 15. A2. Formulaire de déclaration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le tabagisme est responsable de plus de 5 million de décès par an à travers le monde. En Suisse (2010), la prévalence de fumeurs chez les 14-19 ans était de 22% et la prévalence d'ex-fumeurs de 3%, taux qui reste relativement stable au fil des dernières années. La plupart des jeunes fumeurs désirant arrêter de fumer rencontrent des difficultés pour y parvenir. Les revues empiriques ont conclu que les programmes ayant pour but l'arrêt du tabagisme chez les jeunes ont une efficacité limitée. Afin de fournir une base solide de connaissances pour les programmes d'interventions contre le tabagisme, les déterminants de l'auto-cessation ont besoin d'être compris. Nous avons systématiquement recherché dans PUBMED et EMBASE des études longitudinales, basées sur la population, portant sur les déterminants de l'auto-cessation chez des adolescents et des jeunes adultes fumeurs. Nous avons passé en revue 4'502 titres et 871 abstracts, tous examinés indépendamment par deux et trois examinateurs, respectivement. Les critères d'inclusion étant : articles publiés entre janvier 1984 et août 2010, concernant les jeunes entre 10 et 29 ans et avoir une définition de cessation de fumer d'au moins 6 mois. Neuf articles ont été retenus pour une analyse détaillée. Les données suivantes ont été extraites de chaque article : le lieu de l'étude, la période étudiée, la durée du suivi, le nombre de collecte de données, la taille de l'échantillon, l'âge ou l'année scolaire des participants, le nombre de participants qui arrêtent de fumer, le status tabagique lors de la première collecte, la définition de cessation, les co-variantes et la méthode analytique. Le nombre d'études qui montrent une association significativement significative entre un déterminant et l'arrêt du tabagisme a été tabulé à partir de toutes les études qui ont évalués ce déterminant. Trois des neufs articles retenus ont défini l'arrêt du tabagisme comme une abstinence de plus de 6 mois et les six autres comme 12 mois d'abstinence. Malgré l'hétérogénéité des méthodes utilisées, cinq facteurs principaux ressortent comme prédicteur de l'arrêt du tabagisme : 1) ne pas avoir d'amis qui fument, 2) ne pas avoir l'intention de continuer de fumer dans le futur, 3) résister à la pression sociale, 4) être âgé de plus de 18 ans lors de la première cigarette, et 5) avoir un avis négatif au sujet du tabagisme. D'autres facteurs sont significatifs mais ne sont évalués que dans peu d'articles. La littérature au sujet des prédicteurs de cessation chez les adolescents et les jeunes adultes est peu développée. Cependant, nous remarquons que les facteurs que nous avons mis en évidence ne dépendent pas que de l'individu, mais aussi de l'environnement. La prévention du tabagisme peut se centrer sur les bienfaits de l'arrêt (p.ex., par rapport à l'asthme ou les performances sportives) et ainsi motiver les jeunes gens à songer d'arrêter de fumer. Une taxation plus lourde sur le prix des cigarettes peut être envisagée afin de retarder l'âge de la première cigarette. Les publicités anti-tabagiques (non sponsorisées par les entreprises de tabac) peuvent influencer la perception des jeunes par rapport au tabagisme, renforçant ou créant une attitude anti-tabagique. Les prochaines campagnes anti- tabac devraient donc tenir compte de ces différents aspects.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(Résumé de l'ouvrage) La Bible est un texte à lire. Mais qu'est-ce que lire, et comment lire ? Depuis une trentaine d'années, à l'initiative de biblistes tels que Jean Delorme à qui ce livre rend hommage, sont apparues des méthodes de lecture issues de la linguistique : on parle maintenant d'analyse structurale, ou de lecture sémiotique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La mondialisation des marchés, les mutations du contexte économique et enfin l'impact des nouvelles technologies de l'information ont obligé les entreprises à revoir la façon dont elles gèrent leurs capitaux intellectuel (gestion des connaissances) et humain (gestion des compétences). II est communément admis aujourd'hui que ceux-ci jouent un rôle particulièrement stratégique dans l'organisation. L'entreprise désireuse de se lancer dans une politique gestion de ces capitaux devra faire face à différents problèmes. En effet, afin de gérer ces connaissances et ces compétences, un long processus de capitalisation doit être réalisé. Celui-ci doit passer par différentes étapes comme l'identification, l'extraction et la représentation des connaissances et des compétences. Pour cela, il existe différentes méthodes de gestion des connaissances et des compétences comme MASK, CommonKADS, KOD... Malheureusement, ces différentes méthodes sont très lourdes à mettre en oeuvre, et se cantonnent à certains types de connaissances et sont, par conséquent, plus limitées dans les fonctionnalités qu'elles peuvent offrir. Enfin, la gestion des compétences et la gestion des connaissances sont deux domaines dissociés alors qu'il serait intéressant d'unifier ces deux approches en une seule. En effet, les compétences sont très proches des connaissances comme le souligne la définition de la compétence qui suit : « un ensemble de connaissances en action dans un contexte donné ». Par conséquent, nous avons choisi d'appuyer notre proposition sur le concept de compétence. En effet, la compétence est parmi les connaissances de l'entreprise l'une des plus cruciales, en particulier pour éviter la perte de savoir-faire ou pour pouvoir prévenir les besoins futurs de l'entreprise, car derrière les compétences des collaborateurs, se trouve l'efficacité de l'organisation. De plus, il est possible de décrire grâce à la compétence de nombreux autres concepts de l'organisation, comme les métiers, les missions, les projets, les formations... Malheureusement, il n'existe pas réellement de consensus sur la définition de la compétence. D'ailleurs, les différentes définitions existantes, même si elles sont pleinement satisfaisantes pour les experts, ne permettent pas de réaliser un système opérationnel. Dans notre approche; nous abordons la gestion des compétences à l'aide d'une méthode de gestion des connaissances. En effet, de par leur nature même, connaissance et compétence sont intimement liées et donc une telle méthode est parfaitement adaptée à la gestion des compétences. Afin de pouvoir exploiter ces connaissances et ces compétences nous avons dû, dans un premier temps, définir les concepts organisationnels de façon claire et computationnelle. Sur cette base, nous proposons une méthodologie de construction des différents référentiels d'entreprise (référentiel de compétences, des missions, des métiers...). Pour modéliser ces différents référentiels, nous avons choisi l'ontologie, car elle permet d'obtenir des définitions cohérentes et consensuelles aux concepts tout en supportant les diversités langagières. Ensuite, nous cartographions les connaissances de l'entreprise (formations, missions, métiers...) sur ces différentes ontologies afin de pouvoir les exploiter et les diffuser. Notre approche de la gestion des connaissances et de la gestion des compétences a permis la réalisation d'un outil offrant de nombreuses fonctionnalités comme la gestion des aires de mobilités, l'analyse stratégique, les annuaires ou encore la gestion des CV. Abstract The globalization of markets, the easing of economical regulation and finally the impact of new information and communication technologies have obliged firms to re-examine the way they manage their knowledge capital (knowledge management) and their human capital (competence management). It is commonly admitted that knowledge plays a slightly strategical role in the organization. The firms who want to establish one politic of management of these capitals will have to face with different problems. To manage that knowledge, a long process of capitalization must be done. That one has different steps like identification, extraction and representation of knowledge and competences. There are some different methods of knowledge management like MASK, CommonKADS or KOD. Unfortunately, those methods are very difficult to implement and are using only some types of knowledge and are consequently more limited in the functionalities they can offer. Knowledge management and competence management are two different domain where it could be interesting to unify those to one. Indeed, competence is very close than knowledge as underline this definition: "a set of knowledge in action in a specified context". We choose in our approach to rely on the concept of competence. Indeed, the competence is one of crucial knowledge in the company, particularly to avoid the loss of know-how or to prevent future needs. Because behind collaborator's competence, we can find company efficiency. Unfortunately, there is no real consensus on the definition of the concept of competence. Moreover, existing different definitions don't permit to develop an operational system. Among other key concept, we can find jobs, mission, project, and training... Moreover, we approach different problems of the competence management under the angle of the knowledge management. Indeed, knowledge and competence are closely linked. Then, we propose a method to build different company repositories (competence, jobs, projects repositories). To model those different repositories we choose ontology because it permits to obtain coherent and consensual definitions of the concepts with support of linguistics diversities too. This building repositories method coupled with this knowledge and competence management approach permitted the realization of a tool offering functionalities like mobility management, strategical analysis, yellow pages or CV management.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARY : Eukaryotic DNA interacts with the nuclear proteins using non-covalent ionic interactions. Proteins can recognize specific nucleotide sequences based on the sterical interactions with the DNA and these specific protein-DNA interactions are the basis for many nuclear processes, e.g. gene transcription, chromosomal replication, and recombination. New technology termed ChIP-Seq has been recently developed for the analysis of protein-DNA interactions on a whole genome scale and it is based on immunoprecipitation of chromatin and high-throughput DNA sequencing procedure. ChIP-Seq is a novel technique with a great potential to replace older techniques for mapping of protein-DNA interactions. In this thesis, we bring some new insights into the ChIP-Seq data analysis. First, we point out to some common and so far unknown artifacts of the method. Sequence tag distribution in the genome does not follow uniform distribution and we have found extreme hot-spots of tag accumulation over specific loci in the human and mouse genomes. These artifactual sequence tags accumulations will create false peaks in every ChIP-Seq dataset and we propose different filtering methods to reduce the number of false positives. Next, we propose random sampling as a powerful analytical tool in the ChIP-Seq data analysis that could be used to infer biological knowledge from the massive ChIP-Seq datasets. We created unbiased random sampling algorithm and we used this methodology to reveal some of the important biological properties of Nuclear Factor I DNA binding proteins. Finally, by analyzing the ChIP-Seq data in detail, we revealed that Nuclear Factor I transcription factors mainly act as activators of transcription, and that they are associated with specific chromatin modifications that are markers of open chromatin. We speculate that NFI factors only interact with the DNA wrapped around the nucleosome. We also found multiple loci that indicate possible chromatin barrier activity of NFI proteins, which could suggest the use of NFI binding sequences as chromatin insulators in biotechnology applications. RESUME : L'ADN des eucaryotes interagit avec les protéines nucléaires par des interactions noncovalentes ioniques. Les protéines peuvent reconnaître les séquences nucléotidiques spécifiques basées sur l'interaction stérique avec l'ADN, et des interactions spécifiques contrôlent de nombreux processus nucléaire, p.ex. transcription du gène, la réplication chromosomique, et la recombinaison. Une nouvelle technologie appelée ChIP-Seq a été récemment développée pour l'analyse des interactions protéine-ADN à l'échelle du génome entier et cette approche est basée sur l'immuno-précipitation de la chromatine et sur la procédure de séquençage de l'ADN à haut débit. La nouvelle approche ChIP-Seq a donc un fort potentiel pour remplacer les anciennes techniques de cartographie des interactions protéine-ADN. Dans cette thèse, nous apportons de nouvelles perspectives dans l'analyse des données ChIP-Seq. Tout d'abord, nous avons identifié des artefacts très communs associés à cette méthode qui étaient jusqu'à présent insoupçonnés. La distribution des séquences dans le génome ne suit pas une distribution uniforme et nous avons constaté des positions extrêmes d'accumulation de séquence à des régions spécifiques, des génomes humains et de la souris. Ces accumulations des séquences artéfactuelles créera de faux pics dans toutes les données ChIP-Seq, et nous proposons différentes méthodes de filtrage pour réduire le nombre de faux positifs. Ensuite, nous proposons un nouvel échantillonnage aléatoire comme un outil puissant d'analyse des données ChIP-Seq, ce qui pourraient augmenter l'acquisition de connaissances biologiques à partir des données ChIP-Seq. Nous avons créé un algorithme d'échantillonnage aléatoire et nous avons utilisé cette méthode pour révéler certaines des propriétés biologiques importantes de protéines liant à l'ADN nommés Facteur Nucléaire I (NFI). Enfin, en analysant en détail les données de ChIP-Seq pour la famille de facteurs de transcription nommés Facteur Nucléaire I, nous avons révélé que ces protéines agissent principalement comme des activateurs de transcription, et qu'elles sont associées à des modifications de la chromatine spécifiques qui sont des marqueurs de la chromatine ouverte. Nous pensons que lés facteurs NFI interagir uniquement avec l'ADN enroulé autour du nucléosome. Nous avons également constaté plusieurs régions génomiques qui indiquent une éventuelle activité de barrière chromatinienne des protéines NFI, ce qui pourrait suggérer l'utilisation de séquences de liaison NFI comme séquences isolatrices dans des applications de la biotechnologie.