244 resultados para Statistiques portemanteaux


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Le dalcetrapib, inhibiteur de la glycoprotéine hydrophobe de transfert des esters de cholestérol (CETP), a été étudié dans le cadre de l’essai clinique de phase II dal-PLAQUE2 (DP2). L’objectif principal est d’étudier l’effet du dalcetrapib après 1 an de traitement sur la structure et la fonction des HDL dans une sous-population de la cohorte DP2. Méthode : Les sujets de la cohorte DP2 ayant une série de mesures de cIMT et des échantillons de plasma et sérum au baseline et à 1 an de traitement furent sélectionnés (379 sujets: 193 du groupe placebo (PCB) et 186 du groupe dalcetrapib (DAL)). Des données biochimiques prédéterminées, le profil des concentrations et tailles des sous-classes de HDL et LDL en résonance magnétique nucléaire (RMN) et 2 mesures de capacité d’efflux de cholestérol (CEC) du sérum ont été explorées. Les données statistiques furent obtenues en comparant les changements à un an à partir du « baseline » avec un ANOVA ou ANCOVA. La procédure normalisée de fonctionnement d’essai d’efflux de cholestérol permet de calculer l’efflux fractionnel (en %) de 3H-cholestérol des lignées cellulaires BHK-ABCA1 (fibroblastes) et J774 (macrophages, voie ABCA1) et HepG2 (hépatocytes, voie SR-BI), vers les échantillons sériques de la cohorte DP2. Résultats : Pour la biochimie plasmatique, un effet combiné des changements d’activité de CETP dans les 2 groupes a causé une réduction de 30% dans le groupe DAL. Après 1 an de traitement dans le groupe DAL, la valeur de HDL-C a augmenté de 35,5% (p < 0,001) et l’apoA-I a augmenté de 14,0% (p < 0,001). Au profil RMN, dans le groupe DAL après 1 an de traitement, il y a augmentation de la taille des HDL-P (5,2%; p < 0,001), des grosses particules HDL (68,7%; p < 0,001) et des grosses particules LDL (37,5%; p < 0,01). Les petites particules HDL sont diminuées (-9,1%; p < 0,001). Il n’y a aucune différence significative de mesure de cIMT entre les deux groupes après 1 an de traitement. Pour la CEC, il y a augmentation significative par la voie du SR-BI et une augmentation via la voie ABCA1 dans le groupe DAL après 1 an de traitement. Conclusion : Après un an de traitement au dalcetrapib, on note une hausse de HDL-C, des résultats plutôt neutres au niveau du profil lipidique par RMN et une CEC augmentée mais trop faible pour affecter la valeur de cIMT chez les échantillons testés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cet article, nous présentons les résultats d’une étude longitudinale concernant la proportion d’espace consacrée d’une part aux ouvrages de pseudosciences (paranormal, ésotérisme, nouvel âge, arts divinatoires, etc.) et de sciences pour adultes et, d’autre part, aux ouvrages de spiritualité et de sciences pour enfants dans les librairies du Québec. Deux mesures ont été prises, l’une en 2001 dans 55 librairies et l’autre, en 2011 dans 72 librairies. Des analyses statistiques ont été réalisées à partir des mesures prises uniquement dans les librairies visitées aux deux temps de mesure. Les résultats des analyses corrélationnelles montrent que les librairies qui consacrent davantage d’espaces aux ouvrages de pseudosciences destinés aux adultes (n = 40) et aux ouvrages de spiritualité destinés aux enfants (n = 38) sont les mêmes en 2001 et en 2011. Par ailleurs, une ANOVA à mesures répétées montre que la proportion d’espace dévolue aux ouvrages de pseudosciences destinés aux adultes a diminué au deuxième temps de mesure, ce qui n’est pas le cas des livres de spiritualité offerts aux enfants. Après un bref retour sur la méthode utilisée et les résultats, nous invoquons quatre raisons susceptibles d’expliquer la popularité des pseudosciences ainsi que quelques conséquences éthiques et sociales de leur vogue. En conclusion, nous proposons deux solutions pour valoriser la démarche scientifique aux yeux des adolescents et des enfants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’électrofilage est une technique de mise en œuvre efficace et versatile qui permet la production de fibres continues d’un diamètre typique de quelques centaines de nanomètres à partir de l’application d’un haut voltage sur une solution concentrée de polymères enchevêtrés. L’évaporation extrêmement rapide du solvant et les forces d’élongation impliquées dans la formation de ces fibres leur confèrent des propriétés hors du commun et très intéressantes pour plusieurs types d’applications, mais dont on commence seulement à effleurer la surface. À cause de leur petite taille, ces matériaux ont longtemps été étudiés uniquement sous forme d’amas de milliers de fibres avec les techniques conventionnelles telles que la spectroscopie infrarouge ou la diffraction des rayons X. Nos connaissances de leur comportement proviennent donc toujours de la convolution des propriétés de l’amas de fibres et des caractéristiques spécifiques de chacune des fibres qui le compose. Les études récentes à l’échelle de la fibre individuelle ont mis en lumière des comportements inhabituels, particulièrement l’augmentation exponentielle du module avec la réduction du diamètre. L’orientation et, de manière plus générale, la structure moléculaire des fibres sont susceptibles d’être à l'origine de ces propriétés, mais d’une manière encore incomprise. L’établissement de relations structure/propriétés claires et l’identification des paramètres qui les influencent représentent des défis d’importance capitale en vue de tirer profit des caractéristiques très particulières des fibres électrofilées. Pour ce faire, il est nécessaire de développer des méthodes plus accessibles et permettant des analyses structurales rapides et approfondies sur une grande quantité de fibres individuelles présentant une large gamme de diamètre. Dans cette thèse, la spectroscopie Raman confocale est utilisée pour l’étude des caractéristiques structurales, telles que l’orientation moléculaire, la cristallinité et le désenchevêtrement, de fibres électrofilées individuelles. En premier lieu, une nouvelle méthodologie de quantification de l’orientation moléculaire par spectroscopie Raman est développée théoriquement dans le but de réduire la complexité expérimentale de la mesure, d’étendre la gamme de matériaux pour lesquels ces analyses sont possibles et d’éliminer les risques d’erreurs par rapport à la méthode conventionnelle. La validité et la portée de cette nouvelle méthode, appelée MPD, est ensuite démontrée expérimentalement. Par la suite, une méthodologie efficace permettant l’étude de caractéristiques structurales à l’échelle de la fibre individuelle par spectroscopie Raman est présentée en utilisant le poly(éthylène téréphtalate) comme système modèle. Les limites de la technique sont exposées et des stratégies expérimentales pour les contourner sont mises de l’avant. Les résultats révèlent une grande variabilité de l'orientation et de la conformation d'une fibre à l'autre, alors que le taux de cristallinité demeure systématiquement faible, démontrant l'importance et la pertinence des études statistiques de fibres individuelles. La présence de chaînes montrant un degré d’enchevêtrement plus faible dans les fibres électrofilées que dans la masse est ensuite démontrée expérimentalement pour la première fois par spectroscopie infrarouge sur des amas de fibres de polystyrène. Les conditions d'électrofilage favorisant ce phénomène structural, qui est soupçonné d’influencer grandement les propriétés des fibres, sont identifiées. Finalement, l’ensemble des méthodologies développées sont appliquées sur des fibres individuelles de polystyrène pour l’étude approfondie de l’orientation et du désenchevêtrement sur une large gamme de diamètres et pour une grande quantité de fibres. Cette dernière étude permet l’établissement de la première relation structure/propriétés de ces matériaux, à l’échelle individuelle, en montrant clairement le lien entre l’orientation moléculaire, le désenchevêtrement et le module d'élasticité des fibres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les ouvrages de transport d’électricité ont d’abord été pensés un par un, reliant un excédent de production à un besoin de consommation. Ils ont ainsi parfois très naturellement et dès l’origine traversé les frontières des États pour répondre à leur raison d’être. Les secteurs électriques se structurant fortement lorsque le virage électrique fut pris, les interconnexions entre pays furent conçues par les techniciens comme une mesure élémentaire de sûreté et d’équilibre de ce produit atypique qu’est l’électricité. En France plus particulièrement, lorsque la production électronucléaire se développa à partir des années 1970, ces interconnexions devinrent petit à petit sources de revenus pour l’entreprise nationale, et d’équilibre pour la balance commerciale nationale. L’intérêt grandissant porté au secteur électrique par les institutions européennes à la fin des années 1990 vient ébranler les acteurs économiques géographiques verticaux, et rebat les cartes des enjeux à adresser à une maille plus large que l’État nation. Dans ces transformations successives, les interconnexions aux frontières, et particulièrement aux frontières françaises, jouent ainsi un rôle tout à fait spécifique et de plus en plus structurant pour les économies ouvertes des pays européens. Les réseaux de transport électriques continuent ainsi une mutation entamée dans les années 1970 qui les a conduits de la condition de mal nécessaire à celle de vecteurs indispensables de transformation des économies européennes. L’objet de ce mémoire est d’illustrer la très grande capacité d’adaptation de ces organes industriels, économiques, sociétaux et politiques, dont on pourrait faussement penser qu’ils sont immobilisés par leur nature capitalistique, à travers les enjeux portés par les interconnexions aux frontières françaises. Les sources sont à la fois issues de données des opérateurs techniques, de la documentation – encore peu fréquente – sur ces sujets, ainsi que des statistiques officielles du ministère français. Cette capacité d’innovation et de développement de « couches de services » permet aujourd’hui aux grands réseaux de transport de traverser les époques et la variabilité des orientations de leurs environnements, durablement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif. Les jeunes crossover sont définis comme des adolescents qui sont à la fois victimes de maltraitance et délinquants juvéniles. L'objectif de ce mémoire est d’examiner les relations entre les paramètres de la maltraitance (ex., récurrence, sous-types et variété) et les paramètres de la délinquance juvénile (ex., précocité, volume, variété, gravité moyenne et présence de sous-types) vécus par les jeunes crossover. Méthodes. La source des données est constituée de rapports officiels pour tous les adolescents et adolescentes québécois qui ont plaidé coupables ou ont été reconnus coupables d'un crime entre le 1e janvier 2005 et le 31 décembre 2010. D'abord, un portrait des jeunes crossover québécois est dressé à l’aide de statistiques descriptives. Ensuite, des analyses multivariées sont utilisées pour déterminer si les paramètres de la maltraitance prédisent les différentes dimensions de la délinquance et pour examiner les différences selon le sexe. Résultats. La délinquance des jeunes crossover est plus importante que celle des délinquants non-maltraités. Les expériences différentielles de la maltraitance sont liées à des paramètres hétérogènes de la délinquance juvénile. La récurrence de la maltraitance est un prédicteur important des paramètres de la délinquance ultérieure. De plus, la maltraitance est particulièrement influente sur la délinquance des garçons. Implications. Les interventions au sein des systèmes de la protection de la jeunesse et de la justice juvénile doivent être adaptées afin d'identifier les jeunes à risque de délinquance grave, de cibler les dimensions spécifiques de la maltraitance et d’entraver leurs liens à la délinquance ultérieure. L'intervention doit être privilégiée pour les victimes de multiples incidents de maltraitance et pour les garçons victimes de maltraitance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles incrémentaux sont des modèles statistiques qui ont été développés initialement dans le domaine du marketing. Ils sont composés de deux groupes, un groupe contrôle et un groupe traitement, tous deux comparés par rapport à une variable réponse binaire (le choix de réponses est « oui » ou « non »). Ces modèles ont pour but de détecter l’effet du traitement sur les individus à l’étude. Ces individus n’étant pas tous des clients, nous les appellerons : « prospects ». Cet effet peut être négatif, nul ou positif selon les caractéristiques des individus composants les différents groupes. Ce mémoire a pour objectif de comparer des modèles incrémentaux d’un point de vue bayésien et d’un point de vue fréquentiste. Les modèles incrémentaux utilisés en pratique sont ceux de Lo (2002) et de Lai (2004). Ils sont initialement réalisés d’un point de vue fréquentiste. Ainsi, dans ce mémoire, l’approche bayésienne est utilisée et comparée à l’approche fréquentiste. Les simulations sont e ectuées sur des données générées avec des régressions logistiques. Puis, les paramètres de ces régressions sont estimés avec des simulations Monte-Carlo dans l’approche bayésienne et comparés à ceux obtenus dans l’approche fréquentiste. L’estimation des paramètres a une influence directe sur la capacité du modèle à bien prédire l’effet du traitement sur les individus. Nous considérons l’utilisation de trois lois a priori pour l’estimation des paramètres de façon bayésienne. Elles sont choisies de manière à ce que les lois a priori soient non informatives. Les trois lois utilisées sont les suivantes : la loi bêta transformée, la loi Cauchy et la loi normale. Au cours de l’étude, nous remarquerons que les méthodes bayésiennes ont un réel impact positif sur le ciblage des individus composant les échantillons de petite taille.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse tente de comprendre l’impact des restructurations des entreprises multinationales sur les stratégies syndicales. Les acteurs syndicaux locaux sont-ils déterminés par l’appartenance à des régimes nationaux et à des contingences organisationnelles ou peuvent-ils influencer des décisions objectives comme les restructurations ? Cette recherche s’insère dans une problématique large qui fait la jonction entre la mondialisation économique sur une base continentale, la réorganisation productive des entreprises multinationales et l’action syndicale. Au plan théorique, nous confrontons trois grandes approches analytiques, à savoir : le néo-institutionnalisme et les structures d’opportunités ; l’économie politique critique et la question du pouvoir syndical ; la géographie économique critique mettant de l’avant les contingences, l’encastrement et l’espace concurrentiel. Sur la base de ces trois familles, nous présentons un modèle d’analyse multidisciplinaire. Au plan méthodologique, cette thèse est structurée autour de quatre études de cas locales qui ont subi des menaces de restructurations. Cette collecte a été effectuée dans deux pays (la France et le Canada) et dans un secteur particulier (les équipementiers automobiles). Trois sources qualitatives forment le cœur empirique de cette thèse : des statistiques descriptives, des documents de sources secondaires et des entretiens semi-dirigés (44), principalement avec des acteurs syndicaux. L’analyse intra et inter régime national éclaire plusieurs aspects de la question des stratégies syndicales en contexte de restructurations. Les principales contributions de cette thèse touchent : 1. l’impact des facteurs relationnels et des ressources de pouvoir développées par les syndicats locaux sur les structures d’opportunités institutionnelles; 2. l’importance des aspects « cognitifs » et d’envisager le pouvoir de manière multi-niveaux; 3. l’importance de l’encastrement social et des dynamiques relationnelles entre syndicats et patronats; 4. l’influence de la concurrence internationale/nationale/régionale/locale dans le secteur des équipementiers automobiles; et 5. l’importance des arbitrages et des relations entre les acteurs de l’entreprise par rapport à la théorie de la contingence pour comprendre les marges structurelles des syndicats locaux. Notre recherche invite les acteurs sociaux à repenser leur action dans le cadre des restructurations. En particulier, les syndicats locaux se doivent d’explorer de nouveaux répertoires stratégiques pour répondre aux nombreux défis que posent le changement économique et les restructurations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette recherche est d’évaluer l’importance du paysage culturel dans la résilience des communautés urbaines post-catastrophes. Ce travail se concentre sur le quartier du Lower Ninth Ward dans la ville de La Nouvelle-Orléans (États-Unis) après le passage de l’ouragan Katrina en 2005. Les catastrophes naturelles prennent une envergure et causent des dommages considérables lorsqu’elles touchent des villes. La reconstruction post -désastre est donc très dispendieuse pour les villes et les gouvernements, d’autant que certaines régions sont dévastées au point qu’elles doivent être reconstruites au complet. Cependant, le coût le plus lourd à assumer reste celui en vies humaines et si rebâtir les éléments concrets d’une ville est une tâche difficile à entreprendre, reconstruire une communauté est considérablement plus complexe. Dans le but de comprendre une telle démarche, cette recherche se concentre sur les éléments intangibles, comme l’attachement au lieu et les réseaux sociaux, dont une communauté a besoin pour se reconstituer de façon durable et résiliente. Le concept de résilience est très contesté dans la littérature et plusieurs chercheurs se sont essayés à le mesurer. Cette recherche adopte une perspective critique sur le concept et le revisite d’un point de vue holistique pour mettre en lumière sa complexité. Cette démarche permet de remettre en question l’importance de mesurer un concept finalement en perpétuelle redéfinition dans le temps et selon les échelles géographiques. De plus, en établissant une relation entre résilience et paysage culturel, il a été possible de mieux comprendre la complexité de la résilience. Touchant à plusieurs disciplines (architecture de paysage, urbanisme et sociologie), cette recherche utilise une méthodologie qui reflète son aspect multidisciplinaire : les méthodes mixtes. Ces dernières permettent la collecte de données quantitatives et qualitatives qui produisent une vue globale de la situation post-Katrina à travers le regroupement de recensions statistiques, d’observations de terrain et d’articles de journaux. Parallèlement, des entretiens ont été réalisés avec des résidents du quartier ainsi qu’avec des professionnels pour mieux comprendre les différents points de vue. Cette méthodologie a permis de produire des résultats au niveau du cas d’étude autant qu’au niveau théorique. La recherche valide l’importance de prendre en compte le paysage culturel dans les situations post-catastrophes, (en particulier) dans la mesure où il s’agit d’un élément souvent négligé par les urbanistes et les acteurs locaux. En effet, les éléments constitutifs du paysage culturel tels que l’attachement au lieu et les réseaux sociaux, participent d’un sentiment d'appartenance (« home ») et d’une volonté, pour les résidents, de reconstruire leurs habitations, leur communauté ainsi que leur quartier. Toutefois, il faut reconnaître que ces éléments ne suffisent pas à retrouver ce qu’ils ont perdu. Ainsi, l’étude du paysage culturel permet non seulement de mieux comprendre la complexité de la résilience, mais démontre également que cette dernière est une construction sociale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Examiner les tendances temporelles, les déterminants en lien avec le design des études et la qualité des taux de réponse rapportés dans des études cas-témoins sur le cancer publiées lors des 30 dernières années. Méthodes: Une revue des études cas-témoins sur le cancer a été menée. Les critères d'inclusion étaient la publication (i) dans l’un de 15 grands périodiques ciblés et (ii) lors de quatre périodes de publication (1984-1986, 1995, 2005 et 2013) couvrant trois décennies. 370 études ont été sélectionnées et examinées. La méthodologie en lien avec le recrutement des sujets et la collecte de données, les caractéristiques de la population, les taux de participation et les raisons de la non-participation ont été extraites de ces études. Des statistiques descriptives ont été utilisées pour résumer la qualité des taux de réponse rapportés (en fonction de la quantité d’information disponible), les tendances temporelles et les déterminants des taux de réponse; des modèles de régression linéaire ont été utilisés pour analyser les tendances temporelles et les déterminants des taux de participation. Résultats: Dans l'ensemble, les qualités des taux de réponse rapportés et des raisons de non-participation étaient très faible, particulièrement chez les témoins. La participation a diminué au cours des 30 dernières années, et cette baisse est plus marquée dans les études menées après 2000. Lorsque l'on compare les taux de réponse dans les études récentes a ceux des études menées au cours de 1971 à 1980, il y a une plus grande baisse chez les témoins sélectionnés en population générale ( -17,04%, IC 95%: -23,17%, -10,91%) que chez les cas (-5,99%, IC 95%: -11,50%, -0,48%). Les déterminants statistiquement significatifs du taux de réponse chez les cas étaient: le type de cancer examiné, la localisation géographique de la population de l'étude, et le mode de collecte des données. Le seul déterminant statistiquement significatif du taux de réponse chez les témoins hospitaliers était leur localisation géographique. Le seul déterminant statistiquement significatif du taux de participation chez les témoins sélectionnés en population générale était le type de répondant (sujet uniquement ou accompagné d’une tierce personne). Conclusion: Le taux de participation dans les études cas-témoins sur le cancer semble avoir diminué au cours des 30 dernières années et cette baisse serait plus marquée dans les études récentes. Afin d'évaluer le niveau réel de non-participation et ses déterminants, ainsi que l'impact de la non-participation sur la validité des études, il est nécessaire que les études publiées utilisent une approche normalisée pour calculer leurs taux de participation et qu’elles rapportent ceux-ci de façon transparente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les maladies cardiovasculaires ont un impact considérable sur la vie des Canadiens, et de nombreux efforts ont permis d’identifier différents facteurs de risque associés à cette condition. L’hypertension artérielle représente un de ces facteurs modifiables les plus importants. Quoique l’hypertension est définie à l’aide de mesures de pression artérielle en périphérie, il devient de plus en plus apparent que la mesure de pression centrale et de ses composantes auraient des avantages au niveau de la prédiction de la survenue d’événements cardiovasculaires. Le présent mémoire vise à mieux caractériser deux déterminants de cette pression centrale, le traitement antihypertenseur à base de bêtabloqueurs et l’insuffisance rénale chronique précoce. En utilisant les données recueillies dans la banque de données populationnelle CARTaGENE, il a été possible à l’aide d’analyses statistiques par appariement basé sur le coefficient de propension de démontrer que l’utilisation d’agents antihypertensifs de type bêtabloqueurs était associée à un profil hémodynamique central défavorable. Ainsi, les individus recevant ces agents avaient une pression centrale et une amplification artérielle plus élevées que des individus du groupe contrôle apparié et ce, malgré une pression périphérique identique. Cet effet semblait être incomplètement expliqué par la réduction du rythme cardiaque associé à l’utilisation de bêtabloqueurs. Aussi, il a été démontré que l’insuffisance rénale chronique de stade 3 (débit de filtration glomérulaire estimé entre 30 et 60 mL/min/1.73m2) n’était pas associée à une élévation des paramètres hémodynamiques centraux, contrairement à ce qui avait déjà été décrit chez des individus avec insuffisance rénale chronique plus avancée. De plus, le niveau d’albuminurie ne serait également pas associé à un changement du profil central dans un sous-groupe de la cohorte CARTaGENE.