582 resultados para Procédure multipartie
Pro-inflammatory and angiogenic activities of VEGF and angiopoietins in murine sponge/Matrigel model
Resumo:
La dérégulation de la formation et l'intégrité des vaisseaux sanguins peut conduire à un état pathologique tel qu’observé dans de nombreuses maladies ischémiques telles que: la croissance de tumeur solide, l’arthrite rhumatoïde, le psoriasis, les rétinopathies et l'athérosclérose. Par conséquent, la possibilité de moduler l'angiogenèse régionale chez les patients souffrant d'ischémie est cliniquement pertinente. Un élément clé dans l'induction de l'angiogenèse pathologique est une inflammation qui précède et accompagne la formation des nouveaux vaisseaux. Ce phénomène est démontré par l'augmentation de la perméabilité vasculaire et le recrutement de monocytes/ macrophages et cellules polynucléaires (neutrophiles). En collaboration avec d'autres groupes, nous avons montré que différents facteurs de croissance tels que le facteur de croissance endothélial vasculaire et les angiopoïétines peuvent non seulement promouvoir l'angiogenèse mais aussi induire diverses étapes connexes au processus de la réaction inflammatoire, y compris la synthèse et la libération des médiateurs inflammatoires et la migration des neutrophiles. Les objectifs de notre étude étaient d'adresser si le vascular endothelial growth factor (VEGF) et les angiopoïétines (Ang1 et Ang2) sont capables de promouvoir la formation des nouveaux vaisseaux sanguins au fil du temps et d'identifier la présence de différentes cellules inflammatoires dans ce processus. Des éponges d'alcool polyvinylique stérilisées et imbibées de Matrigel appauvri en facteur de croissance (contenant PBS, VEGF, Ang1 ou Ang2 (200 ng/200 μl)) ont été insérées sous la peau de souris C57/Bl6 anesthésiées. Les éponges ont ensuite été retirées aux jours 4, 7, 14 ou 21 après la procédure pour des analyses histologiques, immunohistologiques et cytométriques. La formation des nouveaux vaisseaux a été validée par la coloration au Trichrome de Masson et des analyses histologiques et immunohistologiques contre les cellules endothéliales (anti-CD31). De plus, la maturation des vaisseaux a été démontrée par la coloration séquentielle contre les cellules endothéliales (anti-CD31) et musculaires lisses (anti-alpha-actine). Nous avons effectué la même procédure pour caractériser le recrutement de neutrophiles (anti-MPO), et de macrophages (anti-F4/80). Afin de mieux délimiter la présence de différents sous-ensembles de leucocytes recrutés dans les éponges, nous avons utilisé une technique de cytométrie en flux sur des préparations de cellules isolées à partir de ces éponges. Nous avons observé que le VEGF et les angiopoïétines favorisent le recrutement de cellules endothéliales et la formation de nouveaux vaisseaux plus rapidement qu’en présence de PBS. Une fois formé au jour 7, ces nouveaux vaisseaux restent stables en nombre, et ne subissent pas une réorganisation importante de leur surface. Ces vaisseaux maturent grâce au recrutement et au recouvrement par les cellules musculaires lisses des néovaisseaux. En outre, le microenvironnement angiogénique est composé de cellules inflammatoires, principalement de neutrophiles, macrophages et quelques cellules de type B et T. Donc, le VEGF, l’Ang1 et l’Ang2 induisent séparément la formation et la stabilisation de nouveaux vaisseaux sanguins, ainsi que le recrutement de cellules inflammatoires avec des puissances différentes et une action temps-dépendante dans un modèle d’éponge/Matrigel.
Resumo:
Le traitement chirurgical des anévrismes de l'aorte abdominale est de plus en plus remplacé par la réparation endovasculaire de l’anévrisme (« endovascular aneurysm repair », EVAR) en utilisant des endoprothèses (« stent-grafts », SGs). Cependant, l'efficacité de cette approche moins invasive est compromise par l'incidence de l'écoulement persistant dans l'anévrisme, appelé endofuites menant à une rupture d'anévrisme si elle n'est pas détectée. Par conséquent, une surveillance de longue durée par tomodensitométrie sur une base annuelle est nécessaire ce qui augmente le coût de la procédure EVAR, exposant le patient à un rayonnement ionisants et un agent de contraste néphrotoxique. Le mécanisme de rupture d'anévrisme secondaire à l'endofuite est lié à une pression du sac de l'anévrisme proche de la pression systémique. Il existe une relation entre la contraction ou l'expansion du sac et la pressurisation du sac. La pressurisation résiduelle de l'anévrisme aortique abdominale va induire une pulsation et une circulation sanguine à l'intérieur du sac empêchant ainsi la thrombose du sac et la guérison de l'anévrisme. L'élastographie vasculaire non-invasive (« non-invasive vascular elastography », NIVE) utilisant le « Lagrangian Speckle Model Estimator » (LSME) peut devenir une technique d'imagerie complémentaire pour le suivi des anévrismes après réparation endovasculaire. NIVE a la capacité de fournir des informations importantes sur l'organisation d'un thrombus dans le sac de l'anévrisme et sur la détection des endofuites. La caractérisation de l'organisation d'un thrombus n'a pas été possible dans une étude NIVE précédente. Une limitation de cette étude était l'absence d'examen tomodensitométrique comme étalon-or pour le diagnostic d'endofuites. Nous avons cherché à appliquer et optimiser la technique NIVE pour le suivi des anévrismes de l'aorte abdominale (AAA) après EVAR avec endoprothèse dans un modèle canin dans le but de détecter et caractériser les endofuites et l'organisation du thrombus. Des SGs ont été implantés dans un groupe de 18 chiens avec un anévrisme créé dans l'aorte abdominale. Des endofuites de type I ont été créés dans 4 anévrismes, de type II dans 13 anévrismes tandis qu’un anévrisme n’avait aucune endofuite. L'échographie Doppler (« Doppler ultrasound », DUS) et les examens NIVE ont été réalisés avant puis à 1 semaine, 1 mois, 3 mois et 6 mois après l’EVAR. Une angiographie, une tomodensitométrie et des coupes macroscopiques ont été réalisées au moment du sacrifice. Les valeurs de contrainte ont été calculées en utilisant l`algorithme LSME. Les régions d'endofuite, de thrombus frais (non organisé) et de thrombus solide (organisé) ont été identifiées et segmentées en comparant les résultats de la tomodensitométrie et de l’étude macroscopique. Les valeurs de contrainte dans les zones avec endofuite, thrombus frais et organisé ont été comparées. Les valeurs de contrainte étaient significativement différentes entre les zones d'endofuites, les zones de thrombus frais ou organisé et entre les zones de thrombus frais et organisé. Toutes les endofuites ont été clairement caractérisées par les examens d'élastographie. Aucune corrélation n'a été trouvée entre les valeurs de contrainte et le type d'endofuite, la pression de sac, la taille des endofuites et la taille de l'anévrisme.
Resumo:
Comment pouvons-nous représenter un principe moral universel de manière à le rendre applicable à des cas concrets ? Ce problème revêt une forme aiguë dans la philosophie morale d’Emmanuel Kant (1724-1804), tout particulièrement dans sa théorie du jugement moral, car il soutient que l’on doit appliquer la loi morale « suprasensible » à des actions dans le monde sensible afin de déterminer celles-ci comme moralement bonnes ou mauvaises. Kant aborde ce problème dans un chapitre de la Critique de la raison pratique (1788) intitulé « De la typique de la faculté de juger pratique pure » (KpV 5: 67-71). La première partie de la thèse vise à fournir un commentaire compréhensif et détaillé de ce texte important, mais trop peu étudié. Étant donné que la loi morale, en tant qu’Idée suprasensible de la raison, ne peut pas être appliquée directement à des actions dans l’intuition sensible, Kant a recours à une forme particulière de représentation indirecte et symbolique. Sa solution inédite consiste à fournir la faculté de juger avec un « type [Typus] », ou analogue formel, de la loi morale. Ce type est la loi de la causalité naturelle : en tant que loi, il sert d’étalon formel pour tester l’universalisabilité des maximes ; et, en tant que loi de la nature, il peut aussi s’appliquer à toute action dans l’expérience sensible. Dès lors, le jugement moral s’effectue par le biais d’une expérience de pensée dans laquelle on se demande si l’on peut vouloir que sa maxime devienne une loi universelle d’une nature contrefactuelle dont on ferait soi-même partie. Cette expérience de pensée fonctionne comme une « épreuve [Probe] » de la forme des maximes et, par ce moyen, du statut moral des actions. Kant soutient que tout un chacun, même « l’entendement le plus commun », emploie cette procédure pour l’appréciation morale. De plus, la typique prémunit contre deux menaces à l’éthique rationaliste de Kant, à savoir l’empirisme (c’est-à-dire le conséquentialisme) et le mysticisme. La seconde partie de la thèse se penche sur l’indication de Kant que la typique « ne sert que comme un symbole ». Un bon nombre de commentateurs ont voulu assimiler la typique à la notion d’« hypotypose symbolique » présentée dans le § 59 de la Critique de la faculté de juger (1790). La typique serait un processus de symbolisation esthétique consistant à présenter, de façon indirecte, la représentation abstraite de la loi morale sous la forme d’un symbole concret et intuitif. Dans un premier chapitre, cette interprétation est présentée et soumise à un examen critique qui cherche à montrer qu’elle est erronée et peu judicieuse. Dans le second chapitre, nous poursuivons une voie d’interprétation jusqu’ici ignorée, montrant que la typique a de plus grandes continuités avec la notion d’« anthropomorphisme symbolique », une procédure strictement analogique introduite auparavant dans les Prolégomènes (1783). Nous en concluons, d’une part, que la typique fut un moment décisif dans l’évolution de la théorie kantienne de la représentation symbolique et que, d’autre part, elle marque la réalisation, chez Kant, d’une conception proprement critique de la nature et de la morale comme deux sphères distinctes, dont la médiation s’opère par le biais des concepts de loi et de conformité à la loi (Gesetzmässigkeit). En un mot, la typique s’avère l’instrument par excellence du « rationalisme de la faculté de juger ».
Resumo:
Marquée par la mise en place et par le développement graduel d’importantes transformations de type socioéconomique et démographique, la deuxième moitié du 19e siècle constitue le scénario à partir duquel nous analysons et comparons le phénomène de la mobilité sociale intergénérationnelle au Québec et en Ontario, plus précisément dans la période 1852-1881. Grâce à la disponibilité de bases de microdonnées censitaires largement représentatives de la population qui habitait dans chacune de ces deux provinces en 1852 et en 1881 ainsi qu’au développement récent d’une technique de jumelage automatique, nous avons réussi à obtenir un échantillon de 4226 individus jumelés entre les recensements canadiens de 1852 et de 1881. Ces individus sont les garçons âgés de 0 à 15 ans en 1852, qui habitaient majoritairement en milieu rural au Québec ou en Ontario et qui se trouvent dans l’échantillon de 20% du recensement canadien de 1852. Cet échantillon jumelé nous a permis d’observer les caractéristiques de la famille d’origine de ces garçons en 1852 – par exemple, le statut socioprofessionnel du père et la fréquentation scolaire – ainsi que leur propre statut socioprofessionnel (en tant qu’adultes) en 1881. Malgré certains défis posés par la disponibilité et le type de données ainsi que par la procédure de jumelage, cet échantillon illustre bien les changements majeurs qui ont eu lieu durant la période étudiée dans le marché du travail, soit le déclin du groupe des cultivateurs au profit des travailleurs non-manuels et des travailleurs manuels (surtout les qualifiés). De plus, cet échantillon nous a permis d’identifier que malgré le déclin du groupe des cultivateurs entre les pères (en 1852) et les fils (en 1881), l’agriculture aurait continué à être importante durant cette période et aurait même été ouverte à des individus ayant des origines socioprofessionnelles ou socioéconomiques différentes, c'est-à-dire, à des fils de non-cultivateurs. Cette importance soutenue et cette ouverture de l’agriculture semble avoir été plus importante en Ontario qu’au Québec, ce qui pourrait être associé aux différences entre les provinces en ce qui a trait aux caractéristiques et au développement du secteur agricole entre 1852 et 1881.
Resumo:
La présente étude porte sur les effets de la familiarité dans l’identification d’individus en situation de parade vocale. La parade vocale est une technique inspirée d’une procédure paralégale d’identification visuelle d’individus. Elle consiste en la présentation de plusieurs voix avec des aspects acoustiques similaires définis selon des critères reconnus dans la littérature. L’objectif principal de la présente étude était de déterminer si la familiarité d’une voix dans une parade vocale peut donner un haut taux d’identification correcte (> 99 %) de locuteurs. Cette étude est la première à quantifier le critère de familiarité entre l’identificateur et une personne associée à « une voix-cible » selon quatre paramètres liés aux contacts (communications) entre les individus, soit la récence du contact (à quand remonte la dernière rencontre avec l’individu), la durée et la fréquence moyenne du contact et la période pendant laquelle avaient lieu les contacts. Trois différentes parades vocales ont été élaborées, chacune contenant 10 voix d’hommes incluant une voix-cible pouvant être très familière; ce degré de familiarité a été établi selon un questionnaire. Les participants (identificateurs, n = 44) ont été sélectionnés selon leur niveau de familiarité avec la voix-cible. Toutes les voix étaient celles de locuteurs natifs du franco-québécois et toutes avaient des fréquences fondamentales moyennes similaires à la voix-cible (à un semi-ton près). Aussi, chaque parade vocale contenait des énoncés variant en longueur selon un nombre donné de syllabes (1, 4, 10, 18 syll.). Les résultats démontrent qu’en contrôlant le degré de familiarité et avec un énoncé de 4 syllabes ou plus, on obtient un taux d’identification avec une probabilité exacte d’erreur de p < 1 x 10-12. Ces taux d’identification dépassent ceux obtenus actuellement avec des systèmes automatisés.
Resumo:
Le but de ce mémoire de maîtrise est de décrire les propriétés de la loi double Pareto-lognormale, de montrer comment on peut introduire des variables explicatives dans le modèle et de présenter son large potentiel d'applications dans le domaine de la science actuarielle et de la finance. Tout d'abord, nous donnons la définition de la loi double Pareto-lognormale et présentons certaines de ses propriétés basées sur les travaux de Reed et Jorgensen (2004). Les paramètres peuvent être estimés en utilisant la méthode des moments ou le maximum de vraisemblance. Ensuite, nous ajoutons une variable explicative à notre modèle. La procédure d'estimation des paramètres de ce mo-\\dèle est également discutée. Troisièmement, des applications numériques de notre modèle sont illustrées et quelques tests statistiques utiles sont effectués.
Resumo:
Aucune instance spécifique n’existe sur le plan international pour les litiges civils impliquant la violation par les sociétés transnationales (ci après, STN) des normes de droits humains. Les tribunaux nationaux représentent l’instance compétente afin d’entendre ces causes de droit international privé. Cependant, les tribunaux originaires des STN manifestent leur réticence à exercer leur compétence, alors que les États où sont commises les violations souffrent parfois d’un important déficit de gouvernance. Les victimes se retrouvent ainsi fréquemment sans forum adéquat où adresser leur requête pour les dommages subis. L’objectif du mémoire est de rechercher puis d’élaborer différents arguments afin de faire évoluer l’interprétation de la compétence des tribunaux québécois actuellement préconisée dans le cadre de deux jurisprudences phares en matière d’activité des STN à l’étranger, soit Association canadienne contre l’impunité (ACCI) c. Anvil Mining Ltd., et Recherches Internationales Québec c. Cambior Inc. Le premier chapitre porte sur les règles fondant la compétence des autorités québécoises et les principes les sous-tendant. Notre deuxième chapitre se consacrera à la recherche d’arguments au sein de la jurisprudence étrangère. Notre troisième chapitre présentera les arguments de nature politique, sociale, éthique et théorique rencontrés dans le domaine du droit global. Nous verrons alors plusieurs propositions théoriques afin de mieux appréhender les problèmes liés au vide juridictionnel dont souffrent les victimes demanderesses. Cet éclairage théorique contribuera à justifier l’apport du droit international privé dans le contrôle du respect par les STN des normes de droits humains.
Resumo:
Les membres de la famille SMC (Structural Maintenance of Chromosomes), présents dans tous les domaines de la vie, sont impliqués dans des processus allant de la cohésion des chromatides-sœurs jusqu’à la réparation de l’ADN. Chacun des membres de cette famille, composée de 6 membres (Smc1 à Smc6), s’associe avec un autre membre ainsi qu’à des sous-unités non-SMC pour former 3 complexes : cohésine, condensine et Smc5-6. L’implication du complexe Smc5-6 dans plusieurs aspects du maintien de l’intégrité génomique est bien démontrée. Néanmoins, une question fondamentale concernant ce complexe demeure encore sans réponse: comment peut-il être impliqué dans autant d’aspects de la vie d’une cellule? Encore à ce jour, il est difficile de répondre à cette question en raison du manque d’information disponible au sujet des activités biochimiques de ce complexe. C’est pourquoi l’objectif de ce travail consiste en la caractérisation biochimique du complexe Smc5-6. La biochimie de cohésine et condensine suggère diverses possibilités en ce qui a trait aux activités biochimiques du complexe Smc5-6. La première étape de mon projet fut donc d’élaborer une procédure pour la purification de Smc5 et Smc6 après surexpression en levure. Après plusieurs expériences, il apparut clair que les deux protéines possèdent une activité de liaison à l’ADN simple brin (ADNsb) ainsi qu’à l’ADN double brins (ADNdb) et que, même si les protéines peuvent se lier aux deux types d’ADN, elles possèdent une plus grande affinité pour l’ADNsb. De plus, ces expériences permirent de démontrer que l’interaction entre Smc5 ou Smc6 et l’ADNsb est très stable, alors que l’interaction avec l’ADNdb ne l’est pas. Suite à l’obtention de ces résultats, la seconde étape fut la détermination de la ou des partie(s) de Smc5 et Smc6 permettant la liaison à l’ADN. Pour répondre à cette question, une dissection moléculaire fut réalisée, suivi d’une caractérisation des différents domaines constituants Smc5 et Smc6. De cette façon, il fut possible de démontrer qu’il existe deux sites de liaison à l’ADN sur Smc5 et Smc6 ; le premier site se trouvant dans le domaine «hinge» ainsi que dans la région adjacente du domaine «coiled-coil» et le second au niveau de la tête ATPase des deux protéines. Bien que les deux domaines puissent lier l’ADNsb, il fut démontré qu’une différence majeure existe au niveau de leur affinité pour ce type d’ADN. En effet, le domaine «hinge» possède une affinité plus forte pour l’ADNsb que la tête ATPase. De plus, cette dernière est incapable de lier l’ADNdb alors que le domaine «hinge» le peut. L’identification des sites de liaison à l’ADN sur Smc5 et Smc6 permettra de créer de nouveaux mutants possédant un défaut dans la liaison à l’ADN. Ainsi, l’étude du complexe Smc5-6 durant la réparation de l’ADN in vivo sera facilité.
Resumo:
La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.
Resumo:
L’avancement en âge est associé à plusieurs modifications cognitives, dont un déclin des capacités à mémoriser et/ou à rappeler les événements vécus personnellement. Il amène parallèlement une augmentation des faux souvenirs, c.-à-d. le rappel d’événements qui ne se sont pas réellement déroulés. Les faux souvenirs peuvent avoir d’importantes répercussions dans la vie quotidienne des personnes âgées et il importe donc de mieux comprendre ce phénomène en vieillissement normal. Des études ont démontré l’importance de la fonction des lobes temporaux médians (FTM)/mémoire et de la fonction des lobes frontaux (FF)/fonctions exécutives dans l’effet de faux souvenirs. Ainsi, la première étude de la thèse visait à valider en français une version adaptée d’une méthode proposée par Glisky, Polster, & Routhieaux (1995), permettant de mesurer ces fonctions cognitives (Chapitre 2). L’analyse factorielle de cette étude démontre que les scores neuropsychologiques associés à la mémoire se regroupent en un facteur, le facteur FTM/mémoire, alors que ceux associés aux fonctions exécutives se regroupent en un deuxième facteur, le facteur FF/fonctions exécutives. Des analyses « bootstrap » effectuées avec 1 000 ré-échantillons démontrent la stabilité des résultats pour la majorité des scores. La deuxième étude de cette thèse visait à éclairer les mécanismes cognitifs (FTM/mémoire et FF/fonctions exécutives) ainsi que théoriques de l’effet de faux souvenirs accru en vieillissement normal (Chapitre 3). La Théorie des Traces Floues (TTF; Brainerd & Reyna, 1990) propose des explications de l’effet de faux souvenirs pour lesquelles la FTM/mémoire semble davantage importante, alors que celles proposées par la Théorie de l’Activation et du Monitorage (TAM; Roediger, Balota, & Watson, 2001) sont davantage reliées à la FF/fonctions exécutives. Les tests neuropsychologiques mesurant la FTM/mémoire ainsi que ceux mesurant la FF/fonctions exécutives ont été administrés à 52 participants âgés (moyenne de 67,81 ans). Basé sur l’étude de validation précédente, un score composite de la FTM/mémoire et un score composite de la FF/fonctions exécutives ont été calculés pour chaque participant. Ces derniers ont d’abord été séparés en deux sous-groupes, un premier au score FTM/mémoire élevé (n = 29, âge moyen de 67,45 ans) et un deuxième au score FTM/mémoire faible (n = 23, âge moyen de 68,26 ans) en s’assurant de contrôler statistiquement plusieurs variables, dont le score de la FF/fonctions exécutives. Enfin, ces participants ont été séparés en deux sous-groupes, un premier au score FF/fonctions exécutives élevé (n = 26, âge moyen 68,08 ans) et un deuxième au score FF/fonctions exécutives faible (n = 25, âge moyen de 67,36 ans), en contrôlant les variables confondantes, dont le score de la FTM/mémoire. Les proportions de vraie et de fausse mémoire (cibles et leurres associatifs) ont été mesurées à l’aide d’un paradigme Deese-Roediger et McDermott (DRM; Deese, 1959; Roediger & McDermott, 1995), avec rappel et reconnaissance jumelée à une procédure « Je me souviens / Je sais » (Tulving, 1985) chez les 52 participants âgés ainsi que chez 22 jeunes (âge moyen de 24,59 ans), apparié pour les années de scolarité. D’abord, afin de tester l’hypothèse de la TTF (Brainerd & Reyna, 1990), ces proportions ont été comparées entre les jeunes adultes et les deux sous-groupes de personnes âgées catégorisées selon le score de la FTM/mémoire. Ensuite, afin de tester l’hypothèse de la TAM (Roediger et al., 2001), ces proportions ont été comparées entre les jeunes adultes et les deux sous-groupes de personnes âgées catégorisées selon le score de la FF/fonctions exécutives. Il s’agit de la première étude qui compare directement ces hypothèses à travers de nombreuses mesures de vraie et de fausse mémoire. Les résultats démontrent que seule la FTM/mémoire modulait l’effet d’âge en vraie mémoire, et de manière quelque peu indirecte, en fausse mémoire et dans la relation entre la vraie et la fausse remémoration. Ensuite, les résultats démontrent que seule la FF/fonctions exécutives jouerait un rôle dans la fausse reconnaissance des leurres associatifs. Par ailleurs, en des effets d’âge sont présents en faux rappel et fausse remémorations de leurres associatifs, entre les jeunes adultes et les personnes âgées au fonctionnement cognitif élevé, peu importe la fonction cognitive étudiée. Ces résultats suggèrent que des facteurs autres que la FTM/mémoire et la FF/fonctions exécutives doivent être identifiés afin d’expliquer la vulnérabilité des personnes âgées aux faux souvenirs. Les résultats de cette thèse sont discutés à la lumière des hypothèses théoriques et cognitives en faux souvenirs (Chapitre 4).
Resumo:
L’objectif de cette étude est d’explorer l’effet modérateur du nombre d’amis et de leurs caractéristiques sur le lien prédictif entre la victimisation par les pairs et l’anxiété sociale. Plus spécifiquement, cette étude s’intéresse aux niveaux moyens de victimisation, de rejet et d’anxiété sociale des amis comme facteurs aggravants potentiels. Les données ont été recueillies à deux reprises auprès de 576 adolescents d’en moyenne 13,5 ans au début de leur secondaire deux et à la fin de leur secondaire trois. Les participants ont répondu à des questionnaires auto-rapportés pour les mesures de victimisation et d’anxiété sociale et ont participé à une procédure de nomination sociométrique pour la mesure de statut social et l’identification des amis. De manière concomitante, les résultats démontrent que la victimisation par les pairs et certaines caractéristiques des amis (niveaux d’anxiété et de rejet social) contribuent respectivement, de manière unique et indépendante, à rendre compte de l’anxiété sociale des participants. De manière longitudinale, la victimisation par les pairs permet de prédire le développement de l’anxiété sociale sur une période de 1,5 ans. Néanmoins, le nombre d’amis et leurs caractéristiques ne contribuent pas de manière additive au développement ultérieur de l’anxiété sociale. De plus, les caractéristiques des amis n’interagissent d’aucune façon avec la victimisation par les pairs pour rendre compte du développement ultérieur de l’anxiété sociale. Cependant, des analyses exploratoires ont permis de montrer que le niveau de victimisation des amis constitue un facteur aggravant pour les enfants rejetés socialement; le rejet par les pairs étant positivement associé au développement de l’anxiété sociale chez les élèves qui entretiennent des relations d’amitié avec des élèves qui rapportent être victimes de mauvais traitements.
Resumo:
L'écologie urbaine est un nouveau champ de recherche qui cherche à comprendre les structures et les patrons des communautés et des écosystèmes situés dans des paysages urbains. Les petits plans d’eau sont connus comme des écosystèmes aquatiques qui peuvent contenir une biodiversité considérable pour plusieurs groupes taxonomiques (oiseaux, amphibiens, macroinvertébrés), ce qui en fait des écosystèmes intéressants pour les études de conservation. Cependant, la biodiversité du zooplancton, un élément central des réseaux trophiques aquatiques, n’est pas entièrement connue pour les plans d’eaux urbains et devrait être mieux décrite et comprise. Cette étude a évalué les patrons de biodiversité des communautés zooplanctoniques dans des plans d’eau urbains sur l’Ile de Montréal et leurs sources de variation. Des suggestions pour l’évaluation et la conservation de la biodiversité sont aussi discutées. La biodiversité zooplanctonique des plans d’eaux urbains s’est avérée être assez élevée, avec les cladocères et les rotifères montrant les contributions à la diversité gamma et bêta les plus élevées. Sur l’ensemble des plans d’eau, il y avait une corrélation négative entre les contributions à la bêta diversité des cladocères et des rotifères. Au niveau de chaque plan d'eau, la zone littorale colonisée par des macrophytes s'est avérée être un habitat important pour la biodiversité zooplactonique, contribuant considérablement à la richesse en taxons, souvent avec une différente composition en espèces. Les communautés zooplanctoniques répondaient aux facteurs ascendants et descendants, mais aussi aux pratiques d’entretien, car le fait de vider les plans d’eau en hiver affecte la composition des communautés zooplanctoniques. Les communautés de cladocères dans ces plans d’eau possédaient des quantités variables de diversité phylogénétique, ce qui permet de les classer afin de prioriser les sites à préserver par rapport à la diversité phylogénétique. Le choix des sites à préserver afin de maximiser la diversité phylogénétique devrait être correctement établi, afin d’eviter de faire des choix sous-optimaux. Cependant, pour des taxons tels que les cladocères, pour lesquels les relations phylogénétiques demeurent difficiles à établir, placer une confiance absolue dans un seul arbre est une procédure dangereuse. L’incorporation de l’incertitude phylogénétique a démontré que, lorsqu’elle est prise en compte, plusieurs différences potentielles entre la diversité phylogenétique ne sont plus supportées. Les patrons de composition des communautés différaient entre les plans d’eau, les mois et les zones d’échantillonnage. Etant donné les intéractions sont significatives entres ces facters; ceci indique que tous ces facteurs devraient êtres considérés. L’urbanisation ne semblait pas sélectionner pour un type unique de composition des groupes alimentaires, étant donné que les communautés pouvaient changer entres des assemblages de types alimentaires différents. Les variables environnementales, surtout la couverture du plan d’eau en macrophytes, étaient des facteurs importants pour la biodiversité zooplanctonique, affectant la richesse spécifique de divers groupes taxonomiques et alimentaires. Ces variables affectaient aussi la composition des communautés, mais dans une moindre mesure, étant des variables explicatives modestes, ce qui indiquerait le besoin de considérer d’autres processus.
Resumo:
Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.
Resumo:
La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.
Resumo:
Introduction : Le dalcetrapib, inhibiteur de la glycoprotéine hydrophobe de transfert des esters de cholestérol (CETP), a été étudié dans le cadre de l’essai clinique de phase II dal-PLAQUE2 (DP2). L’objectif principal est d’étudier l’effet du dalcetrapib après 1 an de traitement sur la structure et la fonction des HDL dans une sous-population de la cohorte DP2. Méthode : Les sujets de la cohorte DP2 ayant une série de mesures de cIMT et des échantillons de plasma et sérum au baseline et à 1 an de traitement furent sélectionnés (379 sujets: 193 du groupe placebo (PCB) et 186 du groupe dalcetrapib (DAL)). Des données biochimiques prédéterminées, le profil des concentrations et tailles des sous-classes de HDL et LDL en résonance magnétique nucléaire (RMN) et 2 mesures de capacité d’efflux de cholestérol (CEC) du sérum ont été explorées. Les données statistiques furent obtenues en comparant les changements à un an à partir du « baseline » avec un ANOVA ou ANCOVA. La procédure normalisée de fonctionnement d’essai d’efflux de cholestérol permet de calculer l’efflux fractionnel (en %) de 3H-cholestérol des lignées cellulaires BHK-ABCA1 (fibroblastes) et J774 (macrophages, voie ABCA1) et HepG2 (hépatocytes, voie SR-BI), vers les échantillons sériques de la cohorte DP2. Résultats : Pour la biochimie plasmatique, un effet combiné des changements d’activité de CETP dans les 2 groupes a causé une réduction de 30% dans le groupe DAL. Après 1 an de traitement dans le groupe DAL, la valeur de HDL-C a augmenté de 35,5% (p < 0,001) et l’apoA-I a augmenté de 14,0% (p < 0,001). Au profil RMN, dans le groupe DAL après 1 an de traitement, il y a augmentation de la taille des HDL-P (5,2%; p < 0,001), des grosses particules HDL (68,7%; p < 0,001) et des grosses particules LDL (37,5%; p < 0,01). Les petites particules HDL sont diminuées (-9,1%; p < 0,001). Il n’y a aucune différence significative de mesure de cIMT entre les deux groupes après 1 an de traitement. Pour la CEC, il y a augmentation significative par la voie du SR-BI et une augmentation via la voie ABCA1 dans le groupe DAL après 1 an de traitement. Conclusion : Après un an de traitement au dalcetrapib, on note une hausse de HDL-C, des résultats plutôt neutres au niveau du profil lipidique par RMN et une CEC augmentée mais trop faible pour affecter la valeur de cIMT chez les échantillons testés.