235 resultados para Différence intersexe


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le chapitre « Les paradoxes de l'argumentation en contexte d'éducation: s'accorder sur les désaccords », Muller Mirza part de l'idée qu'à la différence des situations ordinaires de désaccords, les dispositifs utilisant l'argumentation dans des contextes d'éducation demandent aux participants précisément de résoudre ces désaccords. Leur sont donc interdites, par contrat plus ou moins implicite, les échappatoires auxquelles nous recourons volontiers dans les discours quotidiens qui permettent d'éviter de problématiser la question en discussion. C'est dire qu'elle aborde directement une difficulté souvent signalée dans les études sur l'argumentation en contexte éducatif : la tension entre d'une part l'expression de points de vue différents, étape nécessaire à la construction des connaissances, et d'autre part la préservation de la relation entre les interlocuteurs, de leurs faces. Le chapitre propose comme objet de discussion le rôle de cette tension dans des situations d'apprentissage en analysant des productions argumentatives réalisées dans le cadre d'un dispositif particulier. Il invite ainsi à une réflexion non seulement sur les ingrédients des dispositifs pédagogiques qui permettraient de prendre en compte cette tension mais aussi sur les méthodes d'analyse des interactions argumentatives. L'étude de cas met en scène des étudiants de master en psychologie sociale, dans le cadre d'un jeu de rôle : ils sont placés dans la perspective de leur futur métier, et figurent des psychologues conseillant des éducateurs face à des jeunes qui utilisent des insultes racistes entre eux. Le dispositif mis en oeuvre satisfait quatre exigences d'ordre théorique, favorables selon l'auteure à une bonne résolution des désaccords : le ménagement des faces des interlocuteurs en fixant des rôles ne correspondant pas nécessairement aux positions de chacun ; la construction de connaissances,préalable à la discussion ; la médiation de l'échange par un outil, ici un « chat », qui permet d'échanger les points de vue et d'apporter une dimension réflexive en cours d'interaction sur les points de vue exprimés ; le fait de donner du sens à l'activité, en simulant une situation professionnelle potentielle. L'analyse des échanges a été réalisée sur onze corpus constitués par les étudiants en petits groupes de trois ou quatre travaillant sur un logiciel de « chat ». Les questions abordées étaient les suivantes : Comment les interlocuteurs négocient-ils les désaccords qui apparaissent au cours des échanges? Ces désaccords sont-ils propices à une problématisation? Les participants mettent-ils en oeuvre des dynamiques d'« exploration » du désaccord relevé? Cette analyse, inspirée d'une approche socioculturelle reprise en partie des travaux de Neil Mercer sur les « discours exploratoires », met en évidence des dynamiques argumentatives de qualité au cours desquels les désaccords sont non seulement exprimés mais également problématisés au sein des groupes. Elle met entre autres en évidence que le sens de l'activité pour les étudiants est en partie tributaire d'un contrat didactique et pédagogique : leurs échanges sont la base de leur évaluation universitaire. Néanmoins la similitude entre situation d'enseignement et situation professionnelle a largement été perçue par les étudiants et motivante pour eux, ce qui a certainement concouru également à la qualité des échanges.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

4e de couv.: Comment est né le concept moderne, scientifique, de "race" ? Pourquoi est-il devenu si rapidement hiérarchique, distinguant les "races inférieures" des "races supérieures" ? Et comment ce concept a-t-il pu revêtir une telle importance, aussi bien au sein de la communauté scientifique qu'auprès du grand public, au cours du XIXe siècle et du début du XXe siècle, jusqu'à être utilisé pour expliquer l'histoire et le devenir de l'humanité ? Autant d'interrogations, à l'origine de ce livre. L'invention de la race analyse la genèse des conceptions scientifiques de la "race", et montre que les nouvelles techniques de mesure et de représentation des corps racialisés opèrent une révolution visuelle majeure, inscrivant la différence humaine dans la biologie. Cet ouvrage avance qu'à partir d'une origine européenne, l'idée de race s'est étendue - par les connexions transnationales de réseaux scientifiques et marchands -, à tout l'Occident, mais aussi au Japon, à la Corée et à une partie de la Chine. Partout, elle suscite représentations et politique raciales discriminatoires. L'ouvrage montre aussi que les théories sur les hiérarchies raciales ont influencé les spectacles ethniques (dont les zoos humains), les expositions internationales et coloniales, la photographie ou les collections ethnographiques. Les expositions internationales et coloniales et l'internationalisation des spectacles ethniques ont largement véhiculé ces hiérarchies, contribuant forger une vision du monde fondée sur l'inégalité des races.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Le cancer implique rarement l'oeil et risque d'être reconnu tardivement. Les tumeurs intraoculaires primaires les plus fréquentes sont le rétinoblastome chez l'enfant et le mélanome uvéal chez l'adulte.Le diagnostic différentiel d'une baisse de vision dans un contexte de cancer systémique est varié. Des métastases uvéales sont souvent associées au cancer du sein ou du poumon. Un masquerade syndrome est l'atteinte oculaire, pseudo-inflammatoire, d'un lymphome primaire non hodgkinien du système nerveux central. Un traitement oncologique médicamenteux ou radique peut induire une toxicité, souvent rétinienne. Les syndromes paranéoplasiques, rares, sont causés par des anticorps anticancéreux réagissant contre la rétine. Si le cancer touche l'oeil, référer le patient rapidement vers un centre spécialisé pourra faire la différence aux niveaux pronostiques vital et visuel. Abstract Cancer involves so rarely the eye that it may be recognized late. The most frequent primary intra-ocular tumours are retinoblastoma in small children and uveal melanoma in adults.Vision loss in systemic cancer has a varied differential diagnosis. Uveal metastases are most often associated with breast cancer, but can herald lung carcinoma. Masquerade syndrome looks like infllammation but represents the ocular involvement of primary CNS non-Hodgkin lymphoma. Systemic cancer drugs, as well as radiotherapy, can cause ocular toxicity, mostly at the retina. In the rare paraneoplastic syndromes, patient's cancer antibodies cross-react with retinal antigens, leading to severe vision loss. When cancer involves the eye, a fast referral into specialized care can signifiicantly improve visual and vital prognosis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail de recherche a été effectué dans le cadre d'une formation post-graduée à l'Hôpital de La Chaux-de-Fonds, dans lequel le service ORL bénéficie d'un recrutement significatif pour les pathologies naso-sinusiennes, en particulier les polyposes. Ces pathologies sont grevées d'un handicap fonctionnel considérable, de par l'obstruction nasale, la limitation des efforts physiques et les troubles olfactifs comme principales répercussions. J'ai ainsi répertorié 303 interventions endonasales pour ablation de polypes et drainage des cavités sinusales. effectuées entre 1987 et 2006. L'étude s'est focalisée sur les 33 patients atteints d'une polypose nasale mais également d'un asthme et d'une intolérance à l'aspirine, réalisant la triade de Widal. La prévalence en Europe pour la polypose nasale est de 1 à 2 %, dont 10 à 20 % de syndromes de Widal. Cette entité est grevée d'une morbidité plus sévère en raison des mécanismes métaboliques induisant des récidives de polypes précoces, rendant la maladie plus difficile à contrôler. Ces patients ont été évalués d'une part subjectivement par une échelle visuelle analogique pour les symptômes rhinologiques et généraux, et d'autre part via une analyse objective du status endonasal de la polypose à la fin du suivi. Pour chaque patient, les troubles fonctionnels résiduels (obstruction nasale, rhinorrhée, troubles olfactifs, céphalées, éternuements, larmoiement) ainsi que le status endonasal à la fin du suivi ont été analysés pour détecter d'éventuelles associations significatives avec les caractéristiques pré-opératoires (âge, sexe, allergies, antécédants de chirurgie endonasale, données scanographiques, status endonasal). Deux groupes ont été identifiés selon la sévérité de l'atteinte fonctionnelle résiduelle. La valeur moyenne de la gêne à la fin du suivi pour l'ensemble du collectif est de 3.9/10 sur l'échelle visuelle analogique (0= absence de gêne, 10= gêne maximale). Les facteurs de mauvais pronostic qui ont été identifiés sont le sexe féminin et la présence de polyallergies, mais sans relation statistiquement significative. La seule différence statistiquement significative est le stade avancé de polypose nasale à la fin du suivi dans le groupe présentant l'atteinte fonctionnelle la plus importante (groupe 2). Malgré la combinaison des traitements chirurgicaux et médicamenteux par corticoïdes et anti-leucotriènes, la maladie de Widal est grevée d'une gêne fonctionnelle résiduelle non négligeable dans notre suivi moyen de 11,6 ans. Ceci relativise les résultats parfois trop optimistes des études avec un suivi plus court, sachant que les délais avant une deuxième intervention chirurgicale dans notre série ont été de 6,5 ans. L'évolution des traitements immuno-modulateurs topiques et systémiques combinés aux interventions chirurgicales ponctuelles renforce l'arsenal thérapeutique dans la prise en charge des patients atteints de la maladie de Widal. Cette étude pourra être élargie au collectif entier des ethmoïdectomies répertoriées (n=303) dans le service ORL et actualisées, afin de rechercher et mettre en évidence d'autres associations en comparant le groupe des polyposes simples au groupe des triades de Widal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'insuffisance rénale chronique (IRC) accélère le durcissement vasculaire lié à l'âge. La rigidité artérielle peut être évaluée en mesurant la vitesse de l'onde du pouls (VOP) carotide-fémorale ou plus simplement, comme le recommandent les lignes directrices du KDOQI, en surveillant la pression du pouls (PP). Les deux mesures sont en corrélation avec la survie et l'incidence des maladies cardio-vasculaires. La VOP peut également être évaluée au niveau de l'artère brachiale avec l'aide d'un Mobil-O-Graph ; un dispositif automatique non-opérateur dépendant. Le but de l'étude était de vérifier si, dans une population de dialysés, la VOP obtenue par Mobil-O-Graph (MogVOP) est plus sensible que la PP pour détecter le vieillissement vasculaire. Un groupe de 143 patients de 4 unités de dialyse a été suivi en mesurant la MogVOP et la PP tous les 3 à 6 mois. Les résultants ont été comparés avec un groupe de contrôle qui avait les même facteurs de risque mais une eGFR > 30 ml/min. La MogVOP, contrairement à la PP, arrive à discriminer la population des dialysés du groupe de contrôle. La différence moyenne, traduite en âge, entre les deux populations était de 8.4 ans. L'augmentation de la MogVOP, en fonction de l'âge, était plus rapide dans le groupe de dialyse. 13.3% des patients dialysés, mais seulement 3.0% du groupe de contrôle, était des "outliers" pour la MogVOP. Le taux de mortalité (16 sur 143) était similaire chez les "outliers" et les "inliers" (7.4 contre 8.0% par ans). En stratifiant les patients selon la MogVOP on a pu observer une différence significative de la survie. Une valeur haute de parathormone (PTH) et le fait d'être dialysé pour une néphropathie hypertensive ont été associés à un niveau de base de MogVOP supérieur. Évaluer la VOP sur l'artère brachiale, en utilisant un Mobil-O-Graph, est une alternative valide et simple, laquelle, auprès de la population des dialysés, se révèle plus sensible au vieillissement vasculaire que la PP. Comme démontré dans des études antérieures la VOP est corrélée à la mortalité. Parmi les facteurs de risque spécifiques de l'IRC seulement la PTH est associée à une VOP de base plus haute.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Parmi les infections nosocomiales, le Staphylocoque méticilline résistant (MRSA) est le germe pathogène le plus couramment identifié dans les hôpitaux du monde entier. La stratégie de contrôle des MRSA au CHUV implique le dépistage des patients à risque. Avec la méthode de dépistage par culture, le temps d'attente est de plusieurs jours. Ceci occasionne des problèmes dans la gestion des flux des patients, principalement à cause des mesures d'isolement. Pour réduire le temps d'attente, l'hôpital envisage d'utiliser une méthode de diagnostic rapide par "polymerase chain reaction" (PCR). Méthodologie : Les données concernant les dépistages réalisés, dans trois services durant l'année 2007, ont été utilisées. Le nombre de jours d'isolement a d'abord été déterminé par patient et par service. Ensuite une analyse des coûts a été effectuée afin d'évaluer la différence des coûts entre les deux méthodes pour chaque service. Résultats : Le principal impact économique de la méthode par PCR dépend principalement du nombre de jours d'isolements évités par rapport à la méthode de culture. Aux services de soins, l'analyse a été menée sur 192 dépistages. Quand la différence de jours d'isolement est de deux jours, le coût des dépistages diminue de plus de 12kCHF et le nombre de jours d'isolement diminue de 384 jours. Au centre interdisciplinaire des urgences, sur 96 dépistages, le gain potentiel avec la méthode PCR est de 6kCHF avec une diminution de 192 jours d'isolement. Aux soins intensifs adultes, la méthode de dépistage par PCR est la méthode la plus rentable avec une diminution des coûts entre 4KCHF et 20K CHF et une diminution des jours d'isolement entre 170 et 310. Pour les trois services analysés, les résultats montrent un rapport coût-efficacité favorable pour la méthode PCR lorsque la diminution des jours d'isolement est supérieure à 1.3 jour. Quand la différence de jours d'isolement est inférieure à 1.3, il faut tenir compte d'autres paramètres, comme le coût de matériel qui doit être supérieur à 45.5 CHF, et du nombre d'analyses par dépistage, qui doit être inférieur à 3, pour que la PCR reste l'alternative la plus intéressante. Conclusions : La méthode par PCR montre des avantages potentiels importants, tant économiques qu'organisationnels qui limitent ou diminuent les contraintes liées à la stratégie de contrôle des MRSA au CHUV. [Auteure, p. 3]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude consiste à comparer les coûts de deux procédures de dilatation artérielle coronaire (angioplastie par ballonet et angioplastie avec pose de stent) uniquement lors de la phase de cathérisation (et non pas de l'ensemble des coûts du séjour hospitalier). La première partie traite de l'importance de la maladie coronarienne, de ses traitements et des objectifs de l'étude. La deuxième partie explique les éléments et la méthode qui composent le calcul des coûts, illustre les résultats et compare les résultats des deux procédures. La troisième partie analyse les résultats en identifiant quels types de coûts sont à l'origine de la différence du coût total et en explicitant les limites et les compléments nécessaires à l'étude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Le bloc transverse de l'abdomen (bloc TAP, Transversus Abdominis Plane) échoguidé consiste en l'injection d'anesthésique local dans la paroi abdominale entre les muscles oblique interne et transverse de l'abdomen sous contrôle échographique. Ceci permet de bloquer l'innervation sensitive de la paroi antérolatérale de l'abdomen afin de soulager la douleur après des interventions chirurgicales. Auparavant, cette procédure reposait sur une technique dite « à l'aveugle » qui utilisait des repères anatomiques de surface. Depuis quelques années, cette technique est effectuée sous guidage échographique ; ainsi, il est possible de visualiser les structures anatomiques, l'aiguille et l'anesthésique local permettant ainsi une injection précise de l'anesthésique local à l'endroit désiré. Les précédentes méta- analyses sur le bloc TAP n'ont inclus qu'un nombre limité d'articles et n'ont pas examiné l'effet analgésique spécifique de la technique échoguidée. L'objectif de cette méta-analyse est donc de définir l'efficacité analgésique propre du bloc TAP échoguidé après des interventions abdominales chez une population adulte. Méthode : Cette méta-analyse a été effectuée selon les recommandations PRISMA. Une recherche a été effectuée dans les bases de donnée MEDLINE, Cochrane Central Register of Controlled Clinical Trials, Excerpta Medica database (EMBASE) et Cumulative Index to Nursing and Allied Health Literature (CINAHL). Le critère de jugement principal est la consommation intraveineuse de morphine cumulée à 6 h postopératoires, analysée selon le type de chirurgie (laparotomie, laparoscopie, césarienne), la technique anesthésique (anesthésie générale, anesthésie spinale avec/ou sans morphine intrathécale), le moment de l'injection (début ou fin de l'intervention), et la présence ou non d'une analgésie multimodale. Les critères de jugement secondaires sont, entre autres, les scores de douleur au repos et à l'effort à 6 h postopératoires (échelle analogique de 0 à 100), la présence ou non de nausées et vomissements postopératoires, la présence ou non de prurit, et le taux de complications de la technique. Résultats : Trente et une études randomisées contrôlées, incluant un total de 1611 adultes ont été incluses. Indépendamment du type de chirurgie, le bloc TAP échoguidé réduit la consommation de morphine à 6 h postopératoires (différence moyenne : 6 mg ; 95%IC : -7, -4 mg ; I =94% ; p<0.00001), sauf si les patients sont au bénéfice d'une anesthésie spinale avec morphine intrathécale. Le degré de réduction de consommation de morphine n'est pas influencé par le moment de l'injection (I2=0% ; p=0.72) ou la présence d'une analgésie multimodale (I2=73% ; p=0.05). Les scores de douleurs au repos et à l'effort à 6h postopératoire sont également réduits (différence moyenne au repos : -10 ; 95%IC : -15, -5 ; I =92% ; p=0.0002; différence moyenne en mouvement : -9 ; 95%IC : -14, -5 ; I2=58% ; p<0. 00001). Aucune différence n'a été retrouvée au niveau des nausées et vomissements postopératoires et du prurit. Deux complications mineures ont été identifiées (1 hématome, 1 réaction anaphylactoïde sur 1028 patients). Conclusions : Le bloc TAP échoguidé procure une analgésie postopératoire mineure et ne présente aucun bénéfice chez les patients ayant reçu de la morphine intrathécale. L'effet analgésique mineure est indépendant du moment de l'injection ou de la présence ou non d'une analgésie multimodale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les pays développés, la prévalence des démences est de 5% chez les plus de 65ans et doublerait pour chaque tranche d'âge de 10 ans. Avec le vieillissement de la population, le nombre de personnes atteintes de démence augmente chaque année, ce qui pose le problème de trouver rapidement des thérapies et mesures de prévention efficaces. Il est connu que l'hypertension artérielle (HTA) est un facteur de risque pour certaines démences. De plus, de récentes études démontrent que la pression artérielle centrale serait un marqueur hémodynamique plus représentatif des lésions causées au cerveau, dues à une HTA, que la pression périphérique usuellement mesurée. Il serait donc intéressant d'évaluer si la démence est associée à une augmentation de la pression artérielle centrale, en comparaison avec des patients hypertendus non déments. But de l'étude : Cette étude a pour but de quantifier l'apport de la mesure de la pression artérielle centrale ambulatoire dans la caractérisation des patients avec une démence de type Alzheimer. L'objectif principal est de déterminer la taille de la différence de pression artérielle centrale et son écart-­‐type entre les patients hypertendus avec ou sans démence de type Alzheimer afin de pouvoir calculer le nombre de patients nécessaire pour montrer une différence significative. Dans cette étude, nous allons tester l'hypothèse que la pression artérielle centrale (moyenne, systolique et diastolique) est plus élevée chez les patients atteints de troubles cognitifs et/ou qu'ils présentent des perturbations du rythme circadien plus marquées, notamment pour les valeurs durant le sommeil, (non-­‐dipping, reverse dipping, extreme dipping).