578 resultados para Méthodes de crible
Resumo:
Introduction : Décrire les patients d'une structure gériatrique offrant des hospitalisations de courte durée, dans un contexte ambulatoire, pour des situations gériatriques courantes dans le canton de Genève (Suisse). Mesurer les performances de cette structure en termes de qualité des soins et de coûts. Méthodes : Des données relatives au profil des 100 premiers patients ont été collectées (huit mois), ainsi qu'aux prestations, aux ressources et aux effets (réadmissions, décès, satisfaction, complications) de manière à mesurer différents indicateurs de qualité et de coûts. Les valeurs observées ont été systématiquement comparées aux valeurs attendues, calculées à partir du profil des patients. Résultats : Des critères d'admission ont été fixés pour exclure les situations dans lesquelles d'autres structures offrent des soins mieux adaptés. La spécificité de cette structure intermédiaire a été d'assurer une continuité des soins et d'organiser d'emblée le retour à domicile par des prestations de liaison ambulatoire. La faible occurrence des réadmissions potentiellement évitables, une bonne satisfaction des patients, l'absence de décès prématurés et le faible nombre de complications suggèrent que les soins médicaux et infirmiers ont été délivrés avec une bonne qualité. Le coût s'est révélé nettement plus économique que des séjours hospitaliers après ajustement pour la lourdeur des cas. Conclusion : L'expérience-pilote a démontré la faisabilité et l'utilité d'une unité d'hébergement et d'hospitalisation de court séjour en toute sécurité. Le suivi du patient par le médecin traitant assure une continuité des soins et évite la perte d'information lors des transitions ainsi que les examens non pertinents. INTRODUCTION: To describe patients admitted to a geriatric institution, providing short-term hospitalizations in the context of ambulatory care in the canton of Geneva. To measure the performances of this structure in terms of quality ofcare and costs. METHOD: Data related to the clinical,functioning and participation profiles of the first 100 patients were collected. Data related to effects (readmission, deaths, satisfaction, complications), services and resources were also documented over an 8-month period to measure various quality and costindicators. Observed values were systematically compared to expected values, adjusted for case mix. RESULTS: Explicit criteria were proposed to focus on the suitable patients, excluding situations in which other structures were considered to be more appropriate. The specificity of this intermediate structure was to immediately organize, upon discharge, outpatient services at home. The low rate of potentially avoidable readmissions, the high patient satisfaction scores, the absence of premature death and the low number of iatrogenic complications suggest that medical and nursing care delivered reflect a good quality of services. The cost was significantly lower than expected, after adjusting for case mix. CONCLUSION: The pilot experience showed that a short-stay hospitalization unit was feasible with acceptable security conditions. The attending physician's knowledge of the patients allowed this system tofocus on essential issues without proposing inappropriate services.
Resumo:
Enjeu: Déterminer si la macroautophagie est activée de façon excessive dans les neurones en souffrance dans l'encéphalopathie anoxique-ischémique du nouveau-né à terme. Contexte de la recherche: L'encéphalopathie anoxique-ischémique suite à une asphyxie néonatale est associée à une morbidité neurologique à long terme. Une diminution de son incidence reste difficile, son primum movens étant soudain, imprévisible voire non identifiable. Le développement d'un traitement pharmacologique neuroprotecteur post-anoxie reste un défi car les mécanismes impliqués dans la dégénérescence neuronale sont multiples, interconnectés et encore insuffisamment compris. En effet, il ressort des études animales que la notion dichotomique de mort cellulaire apoptotique (type 1)/nécrotique (type 3) est insuffisante. Une même cellule peut présenter des caractéristiques morphologiques mixtes non seulement d'apoptose et de nécrose mais aussi parfois de mort autophagique (type 2) plus récemment décrite. L'autophagie est un processus physiologique normal et essentiel de dégradation de matériel intracellulaire par les enzymes lysosomales. La macroautophagie, nommée simplement autophagie par la suite, consiste en la séquestration de parties de cytosol à éliminer (protéines et organelles) dans des compartiments intermédiaires, les autophagosomes, puis en leur fusion avec des lysosomes pour former des autolysosomes. Dans certaines conditions de stress telles que l'hypoxie et l'excitoxicité, une activité autophagique anormalement élevée peut être impliquée dans la mort cellulaire soit comme un mécanisme de mort indépendant (autodigestion excessive correspondante à la mort cellulaire de type 2) soit en activant d'autres voies de mort comme celles de l'apoptose. Description de l'article: Ce travail examine la présence de l'autophagie et son lien avec la mort cellulaire dans les neurones d'une région cérébrale fréquemment atteinte chez le nouveau- né humain décédé après une asphyxie néonatale sévère, le thalamus ventro-latéral. Ces résultats ont été comparés à ceux obtenus dans un modèle d'hypoxie-ischémie cérébrale chez le raton de 7 jours (dont le cerveau serait comparable à celui d'un nouveau-né humain de 34-37 semaines de gestation). Au total 11 nouveau-nés à terme décédés peu après la naissance ont été rétrospectivement sélectionnés, dont 5 présentant une encéphalopathie hypoxique- ischémique sévère et 6 décédés d'une cause autre que l'asphyxie choisis comme cas contrôle. L'autophagie et l'apoptose neuronale ont été évaluées sur la base d'une étude immunohistochimique et d'imagerie confocale de coupes histologiques en utilisant des marqueurs tels que LC3 (protéine dont la forme LC3-II est liée à la membrane des autophagosomes), p62/SQSTM1 (protéine spécifiquement dégradée par autophagie), LAMP1 (protéine membranaire des lysosomes et des autolysosomes), Cathepsin D ou B (enzymes lysosomales), TUNEL (détection de la fragmentation de l'ADN se produisant lors de l'apoptose), CASPASE-3 activée (protéase effectrice de l'apoptose) et PGP9.5 (protéine spécifique aux neurones). Chez le raton l'étude a pu être étendue en utilisant d'autres méthodes complémentaires telles que la microscopie électronique et le Western-blot. Une quantification des différents marqueurs montre une augmentation statistiquement significative de l'autophagie neuronale dans les cas d'asphyxie par rapport aux cas contrôles chez l'humain comme chez le raton. En cas d'asphyxie, les mêmes neurones expriment une densité accrue d'autophagosomes et d'autolysosomes par rapport aux cas contrôles. De plus, les neurones hautement autophagiques présentent des caractéristiques de l'apoptose. Conclusion: Cette étude montre, pour la première fois, que les neurones thalamiques lésés en cas d'encéphalopathie hypoxique-ischémique sévère présentent un niveau anormalement élevé d'activité autophagique comme démontré chez le raton hypoxique-ischémique. Ce travail permet ainsi de mettre en avant l'importance de considérer l'autophagie comme acteur dans la mort neuronale survenant après asphyxie néonatale. Perspectives: Récemment un certain nombre d'études in vitro ou sur des modèles d'ischémie cérébrale chez les rongeurs suggèrent un rôle important de la macroautophagie dans la mort neuronale. Ainsi, l'inhibition spécifique de la macroautophagie devrait donc être envisagée dans le futur développement des stratégies neuroprotectrices visant à protéger le cerveau des nouveau-nés à terme suite à une asphyxie.
Resumo:
Ce travail présente une étude de cas post-catastrophe à San Cristobal, Guatemala, où un important glissement de terrain du nom «Los Chorros» (8-10 millions de m3 de roche) affecte depuis 2009 diverses communautés et une des routes principales du pays. Les gestionnaires des risques, sur la base de leur propre évaluation, ont décidé de répondre d'une manière qui ne correspond pas aux intérêts de la population affectée. Les communautés locales ont évalué le risque de catastrophe et ont établi une autre solution suivant une conception du risque différente. Les conflits sociaux et la concurrence entre les différents acteurs du territoire, pour la définition des priorités et des solutions, révèlent les aspects sous-jacents de la société, utiles pour identifier et comprendre ce qui constitue le risque de catastrophe dans un contexte donné. Ce conflit montre que le risque de catastrophe n'est pas univoque mais un concept complexe, constitué par un grand nombre de composants. En termes de gouvernance, il met également en évidence la confrontation des savoirs et la tension qui peut exister entre les différentes approches du risque. Depuis une approche où le risque de catastrophe est considéré comme une construction sociale (les vulnérabilités étant historiquement générées par des processus sociaux, politiques, économiques et culturels), ce travail évalue d'autres modes d'interprétation, de traitement et d'intervention qui peuvent aider à améliorer les méthodes d'évaluation et de gestion des risques. Enfin, la proposition de gestion qui découle de l'exemple guatémaltèque invite à une autre manière de concevoir la gestion des risques en intégrant les différentes conceptions du risque et en visant une coordination stratégique entre les acteurs des politiques publiques, les échelles d'intervention, les experts en charge des différents aléas et la société civile, afin d'obtenir une solution acceptable pour tous les acteurs impliqués dans un territoire. -- This work analyses a post-disaster case study from San Cristobal, Guatemala where a large landslide named "Los Chorros (8 millions cubic meters of rock) affects several communities and one of the country's main west-east access highways. Risk managers, starting from their own assessment, decided to respond in a way that does not correspond to the interests of the afected population. Local communities assessed the risk disaster situation and establised another solution from a different conception of risk. These social conflict and competition for priorities and solutions for risk management reveal that disaster risk is not unequivocal but a complex and holistic concept, constituted by a large set of components. From a social constructivism approach, where disaster risk is considered as the results of social, political, economic and historic process, this thesis evaluates other modes of interpreting, shaping and managing risk that can help improve methods of risk assessment and management. Studying the logic of action of actors, who mobilize to establish a solution, enables to identify as to what constitutes a disaster. For this reason, the study focus, in particular, on the analysis of practices (practical science) implemented by all actors in San Cristobal Altaverapaz. Finally, it puts into perspective the risk management in terms of an integrative approach for policy experts that find compromise between different conceptions of risk in order to obtain a solution acceptable to all those involved.
Resumo:
Objectifs La chirurgie pancréatique reste associée à une morbidité postopératoire importante. Les efforts sont concentrés la plupart du temps sur la diminution de cette morbidité, mais la détection précoce de patients à risque de complications pourrait être une autre stratégie valable. Un score simple de prédiction des complications après duodénopancréatectomie céphalique a récemment été publié par Braga et al. La présente étude a pour but de valider ce score et de discuter de ses possibles implications cliniques. Méthodes De 2000 à 2015, 245 patients ont bénéficié d'une duodénopancréatectomie céphalique dans notre service. Les complications postopératoires ont été recensées selon la classification de Dindo et Clavien. Le score de Braga se base sur quatre paramètres : le score ASA (American Society of Anesthesiologists), la texture du pancréas, le diamètre du canal de Wirsung (canal pancréatique principal) et les pertes sanguines intra-opératoires. Un score de risque global de 0 à 15 peut être calculé pour chaque patient. La puissance de discrimination du score a été calculée en utilisant une courbe ROC (receiver operating characteristic). Résultats Des complications majeures sont apparues chez 31% des patients, alors que 17% des patients ont eu des complications majeures dans l'article de Braga. La texture du pancréas et les pertes sanguines étaient statistiquement significativement corrélées à une morbidité accrue. Les aires sous la courbe étaient respectivement de 0.95 et 0.99 pour les scores classés en quatre catégories de risques (de 0 à 3, 4 à 7, 8 à 11 et 12 à 15) et pour les scores individuels (de 0 à 15). Conclusions Le score de Braga permet donc une bonne discrimination entre les complications mineures et majeures. Notre étude de validation suggère que ce score peut être utilisé comme un outil pronostique de complications majeures après duodénopancréatectomie céphalique. Les implications cliniques, c'est-à-dire si les stratégies de prise en charge postopératoire doivent être adaptées en fonction du risque individuel du patient, restent cependant à élucider. -- Objectives Pancreatic surgery remains associated with important morbidity. Efforts are most commonly concentrated on decreasing postoperative morbidity, but early detection of patients at risk could be another valuable strategy. A simple prognostic score has recently been published. This study aimed to validate this score and discuss possible clinical implications. Methods From 2000 to 2012, 245 patients underwent pancreaticoduodenectomy. Complications were graded according to the Dindo-Clavien classification. The Braga score is based on American Society of Anesthesiologists score, pancreatic texture, Wirsung duct diameter, and blood loss. An overall risk score (from 0 to 15) can be calculated for each patient. Score discriminant power was calculated using a receiver operating characteristic curve. Results Major complications occurred in 31% of patients compared to 17% in Braga's data. Pancreatic texture and blood loss were independently statistically significant for increased morbidity. The areas under curve were 0.95 and 0.99 for 4-risk categories and for individual scores, respectively. Conclusions The Braga score discriminates well between minor and major complications. Our validation suggests that it can be used as prognostic tool for major complications after pancreaticoduodenectomy. The clinical implications, i.e., whether postoperative treatment strategies should be adapted according to the patient's individual risk, remain to be elucidated.
Resumo:
La fracture périprothétique du fémur (FPF) représente une complication sérieuse des arthroplasties de hanche. Différents matériels d'ostéosynthèse ont été utilisés pour l'ostéosynthèse des FPFs. Toutefois, aucune étude n'a rapporté les résultats obtenus avec une plaque anatomique non-verrouillée avec des trous excentrés. Les buts de ce travail étaient de présenter 1) le taux de consolidation des FPF traitées par cet implant, 2) les caractéristiques péri-opératoires 3) le taux de complications, et 4) les résultats en terme d'autonomie obtenus après le traitement des FPF du groupe B selon Vancouver avec une plaque anatomique à trous excentrés. Hypothèse L'utilisation de cette plaque permet d'obtenir un taux élevé de consolidation avec un minimum de complications mécaniques. Matériels et Méthodes Quarante-trois patients, d'âge moyen 79 ans ± 13 (41 - 98), qui ont été traités pour une ostéosynthèse d'une FPF de type B selon Vancouver avec cette plaque entre 2002 et 2007 ont été inclus. Les patients ont été classifiées selon les scores ASA et de Charnley. Le temps opératoire, les pertes sanguines chirurgicales, le nombre de transfusion, la durée d'hospitalisation, le délai de consolidation, le lieu de vie ainsi que l'autonomie (score de Parker) ont été évalués. Le taux de survie sans révision a été calculé par la méthode de Kaplan-Meier. Le recul moyen est de 42 mois ± 20 (min - max : 16 - 90). Résultats La consolidation a été obtenue chez tous les patients avec un délai moyen de 2,4 mois ± 0,6 (2-4). 1 patient avec un cal vicieux en varus était à déplorer. Le score de Parker a diminué de 5,93 ± 1,94 (2-9) à 4,93 ± 1,8 (1- 9) (p = 0.01). 2 révisions chirurgicales ont été nécessaires sur la série. Le taux de survie à 5 ans des prothèses après ostéosynthèse de la FPF était de 83,3 % ± 12,6 %. Conclusion Cette plaque anatomique avec trous excentrés permet le traitement des FPF du type B et garantit une consolidation de la fracture avec un faible taux de complications liés à l'ostéosynthèse. Toutefois, les FPF représentent une complication sérieuse des arthroplasties de hanche assortie d'un fort taux de morbidités et de mortalité.
Resumo:
Atherosclerosis is a chronic cardiovascular disease that involves the thicken¬ing of the artery walls as well as the formation of plaques (lesions) causing the narrowing of the lumens, in vessels such as the aorta, the coronary and the carotid arteries. Magnetic resonance imaging (MRI) is a promising modality for the assessment of atherosclerosis, as it is a non-invasive and patient-friendly procedure that does not use ionizing radiation. MRI offers high soft tissue con¬trast already without the need of intravenous contrast media; while modifica¬tion of the MR pulse sequences allows for further adjustment of the contrast for specific diagnostic needs. As such, MRI can create angiographic images of the vessel lumens to assess stenoses at the late stage of the disease, as well as blood flow-suppressed images for the early investigation of the vessel wall and the characterization of the atherosclerotic plaques. However, despite the great technical progress that occurred over the past two decades, MRI is intrinsically a low sensitive technique and some limitations still exist in terms of accuracy and performance. A major challenge for coronary artery imaging is respiratory motion. State- of-the-art diaphragmatic navigators rely on an indirect measure of motion, per¬form a ID correction, and have long and unpredictable scan time. In response, self-navigation (SM) strategies have recently been introduced that offer 100% scan efficiency and increased ease of use. SN detects respiratory motion di¬rectly from the image data obtained at the level of the heart, and retrospectively corrects the same data before final image reconstruction. Thus, SN holds po-tential for multi-dimensional motion compensation. To this regard, this thesis presents novel SN methods that estimate 2D and 3D motion parameters from aliased sub-images that are obtained from the same raw data composing the final image. Combination of all corrected sub-images produces a final image with reduced motion artifacts for the visualization of the coronaries. The first study (section 2.2, 2D Self-Navigation with Compressed Sensing) consists of a method for 2D translational motion compensation. Here, the use of com- pressed sensing (CS) reconstruction is proposed and investigated to support motion detection by reducing aliasing artifacts. In healthy human subjects, CS demonstrated an improvement in motion detection accuracy with simula¬tions on in vivo data, while improved coronary artery visualization was demon¬strated on in vivo free-breathing acquisitions. However, the motion of the heart induced by respiration has been shown to occur in three dimensions and to be more complex than a simple translation. Therefore, the second study (section 2.3,3D Self-Navigation) consists of a method for 3D affine motion correction rather than 2D only. Here, different techniques were adopted to reduce background signal contribution in respiratory motion tracking, as this can be adversely affected by the static tissue that surrounds the heart. The proposed method demonstrated to improve conspicuity and vi¬sualization of coronary arteries in healthy and cardiovascular disease patient cohorts in comparison to a conventional ID SN method. In the third study (section 2.4, 3D Self-Navigation with Compressed Sensing), the same tracking methods were used to obtain sub-images sorted according to the respiratory position. Then, instead of motion correction, a compressed sensing reconstruction was performed on all sorted sub-image data. This process ex¬ploits the consistency of the sorted data to reduce aliasing artifacts such that the sub-image corresponding to the end-expiratory phase can directly be used to visualize the coronaries. In a healthy volunteer cohort, this strategy improved conspicuity and visualization of the coronary arteries when compared to a con¬ventional ID SN method. For the visualization of the vessel wall and atherosclerotic plaques, the state- of-the-art dual inversion recovery (DIR) technique is able to suppress the signal coming from flowing blood and provide positive wall-lumen contrast. How¬ever, optimal contrast may be difficult to obtain and is subject to RR variability. Furthermore, DIR imaging is time-inefficient and multislice acquisitions may lead to prolonged scanning times. In response and as a fourth study of this thesis (chapter 3, Vessel Wall MRI of the Carotid Arteries), a phase-sensitive DIR method has been implemented and tested in the carotid arteries of a healthy volunteer cohort. By exploiting the phase information of images acquired after DIR, the proposed phase-sensitive method enhances wall-lumen contrast while widens the window of opportunity for image acquisition. As a result, a 3-fold increase in volumetric coverage is obtained at no extra cost in scanning time, while image quality is improved. In conclusion, this thesis presented novel methods to address some of the main challenges for MRI of atherosclerosis: the suppression of motion and flow artifacts for improved visualization of vessel lumens, walls and plaques. Such methods showed to significantly improve image quality in human healthy sub¬jects, as well as scan efficiency and ease-of-use of MRI. Extensive validation is now warranted in patient populations to ascertain their diagnostic perfor¬mance. Eventually, these methods may bring the use of atherosclerosis MRI closer to the clinical practice. Résumé L'athérosclérose est une maladie cardiovasculaire chronique qui implique le épaississement de la paroi des artères, ainsi que la formation de plaques (lé¬sions) provoquant le rétrécissement des lumières, dans des vaisseaux tels que l'aorte, les coronaires et les artères carotides. L'imagerie par résonance magné¬tique (IRM) est une modalité prometteuse pour l'évaluation de l'athérosclérose, car il s'agit d'une procédure non-invasive et conviviale pour les patients, qui n'utilise pas des rayonnements ionisants. L'IRM offre un contraste des tissus mous très élevé sans avoir besoin de médias de contraste intraveineux, tan¬dis que la modification des séquences d'impulsions de RM permet en outre le réglage du contraste pour des besoins diagnostiques spécifiques. À ce titre, l'IRM peut créer des images angiographiques des lumières des vaisseaux pour évaluer les sténoses à la fin du stade de la maladie, ainsi que des images avec suppression du flux sanguin pour une première enquête des parois des vais¬seaux et une caractérisation des plaques d'athérosclérose. Cependant, malgré les grands progrès techniques qui ont eu lieu au cours des deux dernières dé¬cennies, l'IRM est une technique peu sensible et certaines limitations existent encore en termes de précision et de performance. Un des principaux défis pour l'imagerie de l'artère coronaire est le mou¬vement respiratoire. Les navigateurs diaphragmatiques de pointe comptent sur une mesure indirecte de mouvement, effectuent une correction 1D, et ont un temps d'acquisition long et imprévisible. En réponse, les stratégies d'auto- navigation (self-navigation: SN) ont été introduites récemment et offrent 100% d'efficacité d'acquisition et une meilleure facilité d'utilisation. Les SN détectent le mouvement respiratoire directement à partir des données brutes de l'image obtenue au niveau du coeur, et rétrospectivement corrigent ces mêmes données avant la reconstruction finale de l'image. Ainsi, les SN détiennent un poten¬tiel pour une compensation multidimensionnelle du mouvement. A cet égard, cette thèse présente de nouvelles méthodes SN qui estiment les paramètres de mouvement 2D et 3D à partir de sous-images qui sont obtenues à partir des mêmes données brutes qui composent l'image finale. La combinaison de toutes les sous-images corrigées produit une image finale pour la visualisation des coronaires ou les artefacts du mouvement sont réduits. La première étude (section 2.2,2D Self-Navigation with Compressed Sensing) traite d'une méthode pour une compensation 2D de mouvement de translation. Ici, on étudie l'utilisation de la reconstruction d'acquisition comprimée (compressed sensing: CS) pour soutenir la détection de mouvement en réduisant les artefacts de sous-échantillonnage. Chez des sujets humains sains, CS a démontré une amélioration de la précision de la détection de mouvement avec des simula¬tions sur des données in vivo, tandis que la visualisation de l'artère coronaire sur des acquisitions de respiration libre in vivo a aussi été améliorée. Pourtant, le mouvement du coeur induite par la respiration se produit en trois dimensions et il est plus complexe qu'un simple déplacement. Par conséquent, la deuxième étude (section 2.3, 3D Self-Navigation) traite d'une méthode de cor¬rection du mouvement 3D plutôt que 2D uniquement. Ici, différentes tech¬niques ont été adoptées pour réduire la contribution du signal du fond dans le suivi de mouvement respiratoire, qui peut être influencé négativement par le tissu statique qui entoure le coeur. La méthode proposée a démontré une amélioration, par rapport à la procédure classique SN de correction 1D, de la visualisation des artères coronaires dans le groupe de sujets sains et des pa¬tients avec maladies cardio-vasculaires. Dans la troisième étude (section 2.4,3D Self-Navigation with Compressed Sensing), les mêmes méthodes de suivi ont été utilisées pour obtenir des sous-images triées selon la position respiratoire. Au lieu de la correction du mouvement, une reconstruction de CS a été réalisée sur toutes les sous-images triées. Cette procédure exploite la cohérence des données pour réduire les artefacts de sous- échantillonnage de telle sorte que la sous-image correspondant à la phase de fin d'expiration peut directement être utilisée pour visualiser les coronaires. Dans un échantillon de volontaires en bonne santé, cette stratégie a amélioré la netteté et la visualisation des artères coronaires par rapport à une méthode classique SN ID. Pour la visualisation des parois des vaisseaux et de plaques d'athérosclérose, la technique de pointe avec double récupération d'inversion (DIR) est capa¬ble de supprimer le signal provenant du sang et de fournir un contraste posi¬tif entre la paroi et la lumière. Pourtant, il est difficile d'obtenir un contraste optimal car cela est soumis à la variabilité du rythme cardiaque. Par ailleurs, l'imagerie DIR est inefficace du point de vue du temps et les acquisitions "mul- tislice" peuvent conduire à des temps de scan prolongés. En réponse à ce prob¬lème et comme quatrième étude de cette thèse (chapitre 3, Vessel Wall MRI of the Carotid Arteries), une méthode de DIR phase-sensitive a été implémenté et testé
Resumo:
L'épidémiologie et la systémique présentent des analogies aussi bien dans leur champ d'application que dans leurs méthodes, bien qu'elles s'attachent chacune à un corps de doctrine différent. Certaines de ces analogies sont illustrées par des exemples d'épidémiologie en médecine du travail et en psychiatrie.
Resumo:
Comparer une intervention psychothérapeutique interdisciplinaire brève à une prise en charge standard comme traitements pour des patients ayant récemment été diagnostiqués comme souffrant d'un trouble de conversion moteur sévère ou d'attaques non-épileptiques. Méthodes Cette étude randomisée contrôlée de 23 patients consécutifs a comparé a) un groupe d'intervention psychothérapeutique interdisciplinaire recevant 4-6 séances par un psychiatre de liaison, la première et dernière séance étant couplée à une consultation neurologique et à une consultation conjointe par le neurologue et le psychiatre; b) un groupe de prise en charge standard. Après l'intervention, les patients ont été évalués à 2, 6 et 12 mois par le questionnaire de dissociation somatoforme SDQ-20, l'échelle d'impression clinique globale, l'échelle de Rankin, l'utilisation des services de santé, la santé mentale en général (MADRS, échelle de dépression de Beck, composante de santé mentale du SF-36), la qualité de vie (SF-36). Nous avons calculé des modèles linéaires mixtes. Résultats Notre intervention a mené à une amélioration statistiquement significative ? des symptômes physiques (par une mesure du SDQ-20 (p<0.02), et par l'échelle de l'impression clinique globale (p=0.02)) ? des symptômes psychologiques (meilleurs scores à la composante de santé mentale du SF-36 (p<0.05) et à l'inventaire de dépression de Beck (p<0.05)) ? et à une réduction des nouvelles hospitalisations après l'intervention (p<0.05). Conclusion Une intervention psychothérapeutique interdisciplinaire brève en étroite collaboration avec des spécialistes en neurologie dans un cadre de psychiatrie de consultation et liaison a un effet statistiquement significatif sur l'amélioration de patients souffrant de trouble de conversion moteur et d'attaques non-épileptiques.
Resumo:
La constante évolution des biotechnologies de la procréation médicalement assistée (PMA) introduit des nouveautés qui perturbent les représentations de la famille et du « naturel » de la procréation notamment. Ces nouveautés engendrent des préoccupations aussi bien sociales qu'individuelles sur la légitimité et les conditions du recours à la PMA. Partant d'une approche dialogique de la communication, du langage et de la cognition ainsi que de la théorie des représentations sociales, nous faisons l'hypothèse que ces perturbations sont traitées différemment selon l'activité communicative dans laquelle les individus sont engagés. Nous avons alors travaillé à partir de deux corpus de données relevant d'un type d'activité communicative différent : un corpus de presse, de l'ordre d'un discours générique, portant sur la grossesse dite « tardive » (post-ménopause) et un corpus d'entretiens de recherche, de l'ordre d'un discours singulier, avec des couples qui ont recouru à la PMA, et portant sur la cryoconservation des zygotes. Nous appuyant sur les méthodes de l'analyse thématique et de l'analyse de discours, nous centrons notre examen sur les représentations sociales de la maternité (corpus de presse) et du « naturel » (corpus d'entretiens). Nous analysons ce que ces discours permettent d'accomplir socialement, étudions le rapport qu'ils établissent à l'ordre social et symbolique et interrogeons leurs fonctions en termes de processus de « naturalisation » de la PMA. Nos résultats montrent que les nouveautés de la PMA forcent les individus à se (re)positionner dans le champ des valeurs et des normes, lis montrent aussi que, dans ce contexte, les représentations sociales existantes sont mobilisées de différentes manières en fonction des visées argumentatives poursuivies. Ceci impliquant, par ailleurs, si ce n'est une transformation, du moins un renouvellement des représentations. Ils indiquent en outre que, bien que le discours de presse et celui des entretiens ne servent pas exactement les mêmes objectifs, leurs effets de « naturalisation » de la PMA sont comparables en termes de (re)construction de la norme. D'un point de vue dialogique, ils permettent aussi d'avancer que les polémiques sociales et individuelles sont non seulement articulées mais se co-constituent. Ils témoignent aussi du fait que la référence au « naturel » renvoie, plus qu'à un problème de perturbation de la « nature », à l'idée d'une menace de l'ordre social et symbolique. De ce point de vue, les réflexions sur les pratiques de PMA méritent d'être menées par la psychologie sociale et les sciences humaines et sociales plus largement. -- The constant evolution of biotechnologies of medically assisted procreation (MAP) introduces novelties that disturb representations of the family and, notably, of what is considered « natural » in procreation. These novelties give rise to social and individual questions about the legitimacy and the conditions of the use of MAP. Drawing upon a dialogical approach to communication, language and cognition, as well as social representations theory, a hypothesis is advanced that these disturbances are handled differently, depending on the communicative activity individuals are engaged in. Two corpuses of data, representing different communicative activity types, were used: a press corpus, reflecting a generic discourse on "late" pregnancy (post-menopause), and a research interviews corpus, reflecting particular discourses developed by couples who used MAP and have cryopreserved zygotes. Using methods of thematic and discourse analysis, the study focuses on social representations of pregnancy (press corpus) and of the "natural" (interviews corpus). The analysis questions what these discourses enable to achieve socially, how they relate to the social and symbolic order, as well as their function in "naturalising" MAP. The results show that MAP novelties force individuals to (re)position themselves in the field of values and norms. They also show that, in this context, existing social representations are mobilised in different ways depending on the argumentative aims that are being pursued. This implies, if not a transformation, at minimum a renewal of representations. Additionally the results indicate that, although press and interviews discourses might not serve the same aims, their effects on "naturalising" MAP are comparable in terms of (re)constructing the norm. From a dialogical perspective, the findings also allow us to argue that social and individual polemics are not only articulated with one another but are effectively co-constituted. They also evidence the fact that the reference to the "natural" brings forth, more than a problem of disturbing "nature", a threat to the social and symbolic order. From this perspective, reflections on MAP practices deserve further attention within social psychology and social and human sciences at large.
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
Contexte: Le Programme cantonal diabète se développe depuis 2010 dans le canton de Vaud. Il a pour objectif de limiter l'évolution de l'incidence du diabète et d'améliorer la prise en charge des patients diabétiques. - Méthodes: Cette étude vise à recueillir des données concernant : 1) la collaboration interprofessionnelle, 2) la pratique professionnelle au regard du « Chronic care model », ainsi que 3) la connaissance et la mise en pratique des recommandations pour la pratique clinique (RPC) auprès du patient diabétique. Les professionnels de santé (PdS) suivant ont été sollicités pour participer à cette étude : médecins et infirmier(ère)s spécialisé(e)s en diabétologie, médecins de premiers recours et infirmier(ère)s en soins généraux. Cette étude comporte un volet quantitatif où les PdS étaient invités à répondre à un questionnaire sur Internet, et un volet qualitatif où des PdS ont été réunis lors de trois focus groups pour recueillir leurs avis sur les trois thématiques de l'étude.
Resumo:
La transfusion de concentrés plaquettaires, dès 1958, a permis d'augmenter l'espérance et la qualité de vie des patients dans le domaine de l'onco-hématologie, notamment en réduisant les risques hémorragiques induits par les chimiothérapies intensives. Après le traumatisme de l'affaire du sang contaminé dans les années 1980-1990, la médecine transfusionnelle a adopté des exigences de sécurité et de qualité très strictes et régulées dans plusieurs pays par les instances politiques. Cependant même les mesures de qualité les plus strictes n'ont permis d'atteindre le risque « zéro », notamment en ce qui concerne les contaminations bactériennes. De plus, la prise de conscience de l'existence de nouveaux pathogènes (West Nile Virus, Chikungunya, Prions) a stimulé le développement de 3 techniques d'inactivation des pathogènes pouvant s'appliquer au plasma et aux concentrés plaquettaires : la technique INTERCEPT utilisant l'amotosalen/UVA, la technique MIRASOL avec la riboflavine/UV et la technique THERAFLEX avec les UVC. La Suisse a fait office de pionnière en étant le premier pays au monde à adopter de manière généralisée l'inactivation des pathogènes par la technique INTERCEPT pour les concentrés plaquettaires dès 2011 après sa validation par Swissmedic en 2009 et son implémentation réussie dans plusieurs centres de transfusion pilotes. Coïncidence? Le décès tragique d'un patient pédiatrique en 2009 suite à une contamination bactérienne par une transfusion de concentré plaquettaire a précédé cette décision. Les cliniciens ont besoin de disposer de concentrés plaquettaires sûrs d'un point de vue microbiologique mais également sur le plan hémostatique, d'où la nécessité de disposer de preuves solides sur l'efficacité thérapeutique de ces nouveaux produits. Ceci a fait l'objet de la revue publiée dans Blood Reviews « The clinical and biological impact of new pathogen inactivation technologies on platelets concentrates » dont l'originalité est de couvrir l'étude de l'effet des processus d'inactivation des pathogènes sur la fonction plaquettaire sous toutes ses facettes allant de la protéomique aux études d'hémovigilance. Ce travail montre l'efficacité de ces méthodes et leur sécurité et souligne que l'observation de taux de recirculation moindre peut être compensée par une augmentation du statut d'activation des plaquettes. Le deuxième article publié comme co-auteur dans le journal Blood Transfusion « In vitro evaluation of pathogen-inactivated buffy coat-derived platelet concentrates during storage: The psoralen-based photochemical treatment step-by-step » se pose la question de la modification des propriétés fonctionnelles des plaquettes dans une étude à deux bras (par comparaison entre plaquettes traitées et non traitées). En plus de deux tests utilisés en pratique clinique (agrégation plaquettaire et cytométrie de flux) un test expérimental d'adhésion plaquettaire au fibrinogène en condition statique a été développé en collaboration avec le Prof Angelillo-Scherrer dans le cadre du laboratoire de recherche et développement du SRTS-VD. Les résultats obtenus démontrent la conservation du métabolisme plaquettaire et des changements mineurs dans la capacité d'agrégation mais une augmentation de la capacité d'adhésion au fibrinogène des plaquettes traitées probablement via une augmentation de la conversion de l'intégrine ailb(B3 dans sa forme activée. Les techniques d'inactivation des pathogènes appliqués aux concentrés plaquettaires représentent un important progrès dans le domaine de la médecine transfusionnelle. Leur impact au niveau moléculaire reste cependant encore en partie inconnu et fait l'objet d'études. Le défi actuel consiste à réussir à les adopter aux concentrés érythrocytaires, ce qui révolutionnerait la médecine transfusionnelle.
Resumo:
Contexte de recherche Mon projet de thèse en médecine concerne l'exploration des facteurs associés à l'excrétion urinaire de calcium durant 24h dans une étude populationnelle suisse. Les données qui ont été utilisées sont issues d'une étude populationnelle connue sous le nom de « Swiss survey on Salt intake », qui a été effectuée entre janvier 2010 et mars 2012 et avait pour but principal d'investiguer la consommation de sel de la population suisse. L'étude a regroupé plusieurs centres d'investigations dans toute la Suisse (11 centres dans 9 cantons), dans trois langues nationales (français, allemand et italien) et concerne des participants âgés de plus de 15 ans. Cette étude avait l'avantage de collecter des données anthropométriques, sanguines, urinaires, de lister les traitements et de poser des questions sur le style de vie (alcool, activité physique, etc.). A notre connaissance, peu d'articles populationnels explorent les facteurs associés à l'excrétion urinaire de calcium durant 24h et notamment l'association de celle-ci avec le calcium corrigé sanguin et la 250H-vitamine D2*3 sanguin chez les hommes et les femmes. Méthodes Après exclusions des données manquantes, 1293 participants sur 1550 ont été retenus pour l'analyse statistique. Celle-ci a été effectuée grâce au logiciel Stata 12. Nous avons utilisé la régression linéaire multiple dont la variable dépendante était l'excrétion urinaire de calcium durant 24h en stratifiant les analyses par sexe (en raison des interactions statistiques significatives entre calcémie et sexe, et entre vitamine D et sexe). Les variables indépendantes comprenaient des variables en lien avec l'excrétion urinaire de calcium (vingt-quatre covariables au total) dont la 250H-vitamine D2+3 (avec la variabilité saisonnière) et la calcémie (calcium sérique corrigé par les protéines). Résultats D'importantes différences entre hommes et femmes ont été observées : une association positive entre l'excrétion urinaire de calcium durant 24h et la calcémie corrigée a été trouvée chez les femmes mais pas chez les hommes. En parallèle, nous relevons une association positive entre l'excrétion urinaire de calcium durant 24h et la 250H-vitamine D2+3 chez les hommes mais pas chez les femmes (liée essentiellement à la présence 250H-vitamine D3 en quantité bien plus importante que la 250H-vitamine D2). Nous soulevons deux hypothèses possibles pour expliquer ces importances différences hommes-femmes. La première hypothèse est l'influence des hormones sexuelles. La seconde hypothèse est la contribution des facteurs diététiques. De nouvelles analyses et de nouvelles études populationnelles sont nécessaires pour confirmer ou infirmer ces hypothèses. Perspectives Une prochaine étape sera d'explorer l'influence de l'excrétion urinaire de sodium, de potassium et d'urée sur les associations observées afin d'étudier une possible influence de l'alimentation sur ces résultats. Une autre étape consistera à doser les hormones sexuelles dans les échantillons de cette étude ou dans ceux d'une autre étude. La prévalence de l'hypercalciurie dans cette étude (9 % chez les hommes et 8.1% chez les femmes) est plus basse que dans d'anciennes études non-populationnelles. Il paraît important de mentionner qu'il existe peu de données sur les normes de calciurie dans la population générale et qu'il n'existe pas de consensus international claire concernant la définition de l'hypercalciurie. Cette prévalence élevée est notamment pertinente dans la cadre des néphrolithiasés, qui sont connues pour être plus fréquentes chez les hommes que chez les femmes. Enjeux Les différences hommes-femmes observées pourraient avoir des implications pour améliorer notre compréhension des mécanismes impliqués dans les lithiases urinaires et dans le risque cardiovasculaire associé ainsi que dans notre compréhension des mécanismes associés à l'ostéoporose.
Resumo:
Introduction : La littérature suggère un lien entre l'exposition à des expériences traumatiques durant l'enfance et des déficits dans le niveau de fonctionnement chez des patients souffrant de psychose. Par contre, l'impact de l'âge au moment de l'exposition à ces expériences n'a pas été investigué chez des patients dans leur phase précoce de la psychose. Méthodes : Deux cents vingt-cinq patients âgés entre 18 et 35 ans ont été évalués au moment de leur entrée dans un programme thérapeutique spécialisé pour la psychose débutante (TIPP), et après 2, 6, 12, 18, 24, 30 et 36 mois de traitement. Les patients exposés à des abus sexuel et/ou physiques (SPA) ont été classifiés selon l'âge au moment de la première exposition (Early-SPA : avant 11 ans d'âge; Late-SPA : entre 12 et 15 ans d'âge) et ils ont été comparés à des patients qui n'ont jamais été exposés à une telle expérience (Non-SPA). Le niveau de fonctionnement dans la phase premorbide a été mesuré avec la Premorbid Adjustment Scale (PAS) et avec les échelles Global Assessment of Functioning (GAF) et Social and Occupational Functionning Assessment Scale (SOFAS) durant le suivi thérapeutique. Résultats : 24.8 % des patients ont été exposés à SPA. Les patients dans le groupe Late-SPA étaient plus souvent des femmes (p=0.010). Les comparaisons avec les patients dans le groupe Non-SPA ont révélé que : (1) Les patients dans le groupe Early et Late-SPA ont montré un moins bon niveau de fonctionnement social premorbide durant l'adolescence précoce, et (2) alors que les patients dans le groupe Early-SPA ont présenté un moins bon niveau de fonctionnement durant tout le suivi selon les scores de GAF (p=0.025) et SOFAS (p=0.048), les patients dans le groupe Late-SPA n'ont pas montré telles différences avec le groupe non exposé. Conclusion : Nos résultats suggèrent un lien entre l'exposition à SPA et une altération ultérieure de niveau de fonctionnement social, avant l'apparition de la maladie. Les patients dans leur phase précoce de la psychose exposés à SPA avant l'âge de 12 ans ont des altérations fonctionnelles durables, alors que les patients exposés à SPA plus tardivement semblent s'améliorer à ce niveau et montrent une meilleure capacité de récupération.
Resumo:
Le but de cette thèse a été d'investiguer la relation entre, d'une part le temps de propagation de l'onde de pouls artérielle du coeur vers les membres inférieurs, et d'autre part le temps séparant, au niveau de l'aorte ascendante, la génération de l'onde antérograde du retour des ondes réfléchies. Le principe de la méthode employée a été de mesurer ces deux temps par deux méthodes indépendantes, ce en les faisant varier par changement rapide de la position du corps, chez sujets humains volontaires. Le facteur gravitationnel a en effet une influence majeure sur la pression transmurale des artères, dont dépend largement la vitesse de propagation des ondes de pouls, tant dans le sens antérograde que rétrograde. Vingt sujets jeunes, en bonne santé, dontIO hommes et 10 femmes, ont été examinés sur une table de tilt, dans deux positions différentes : tête vers le bas (angle de tilt : - 10°) et tête vers le haut (+45°).Dans chaque position, le temps de propagation carotido- femorale (Tcf, succédané du temps aorto-fémoral) et carotido-tibial (Tct, succédané du temps aorto-tibial) a été mesuré avec l'appareil Complior. De même, dans chaque position la pression aortique centrale a été enregistrée par tonométrie radiale en utilisant l'appareil SphygmoCor qui applique une fonction de transfert généralisé pour reconstruire la forme de l'onde de pouls aortique. L'analyse de celle-ci permet ensuite de calculer les temps d'aller-retour des ondes réfléchies atteignant l'aorte pendant la systole (début de l'onde réfléchie, sT1 r) et pendant la diastole (temps de transit moyen de l'onde diastolique réfléchie dMTT). Le changement de position de tête vers le haut à tête vers le bas, a provoqué une augmentation importante du temps de propagation Tct (chez le femmes de 130±10 à 185±18msec, P<0,001 et chez les hommes de 136±9 à 204±18msec P<0.001) ainsi que du temps moyen de transition de l'onde diastolique réfléchie dMTT (chez les femmes de 364±35 à 499±33msec P<0,001 et chez les hommes de 406±22 à 553±21msec, P<0,001). Un modèle de régression mixte montre qu'entre les deux positions, les variations de dMTT sont environ le double de celles de Tct (coefficient de régression 2.1; 95% intervalle de confiance 1.9-2,3, P<0,001). Ces résultats suggèrent que les ondes diastoliques observées dans l'onde de pouls aortique central reconstruites par tonométrie radiale, correspondent, du moins en partie, aux ondes réfléchies générées au niveau des membres inférieurs.