989 resultados para test de ratio des variances
Resumo:
SOMMAIRE Les élèves du primaire éprouvent de la difficulté à transférer, dans leurs productions écrites, les notions d’orthographe grammaticale enseignées en classe de français. La présente recherche souhaite vérifier si l’enseignement de l’identification des classes de mots par la méthode inductive jumelée aux approches spécifique ou intégrée permettrait aux élèves de repérer plus efficacement les déterminants, les noms, les adjectifs et les verbes dans leurs propres productions écrites et, par la suite, d’effectuer correctement les accords grammaticaux. La cueillette de données s’effectue à l’aide de six productions écrites rédigées en autant de semaines par les élèves de trois groupes-classes de la 2e année du 2e cycle du primaire. Les résultats des groupes expérimentaux (un expérimentant l’approche intégrée et l’autre, l’approche spécifique) sont comparés à ceux obtenus par un groupe de contrôle. À la fin de l’expérimentation, les résultats se sont maintenus, entre le prétest et le post-test, en ce qui concerne l’identification des déterminants, des noms et des adjectifs pour les trois groupes. Ils ont cependant diminué pour ce qui est de l’identification des verbes. En ce qui concerne les accords grammaticaux, tous les groupes ont amélioré leurs accords déterminant-nom, le groupe contrôle a présenté de meilleurs résultats pour l’accord de l’adjectif et seul le groupe expérimentant l’approche spécifique a réussi à maintenir ses résultats concernant l’accord du verbe, alors que les deux autres groupes ont obtenu des résultats plus faibles à la fin de l’expérimentation.
Resumo:
Cette thèse poursuit deux objectifs principaux. Le premier consiste à développer un modèle de la compatibilité conjugale fondé sur les notions d’attachement (évitement de la proximité et anxiété d’abandon) et de personnalité (névrotisme). Le deuxième objectif est d’examiner la validité prévisionnelle de ce modèle de compatibilité chez des couples en psychothérapie conjugale. Dans un premier temps, la présente thèse fait brièvement état de la situation des couples au Québec et des répercussions de la détresse conjugale. Par la suite, la recension de la documentation traite du concept de compatibilité entre conjoints en tant qu’alternative à la conceptualisation des dynamiques de couples. Cette analyse théorique montre ensuite la pertinence d’enrichir les modèles de compatibilité en y introduisant les notions d’attachement et de névrotisme. L’examen de ce modèle est suivi par une description des enjeux méthodologiques et statistiques à prendre en compte pour déterminer les fondements scientifiques des hypothèses sur la compatibilité conjugale. L’analyse de la validité prévisionnelle du modèle de compatibilité proposé compose le cœur de cette thèse. Pour ce faire, des couples effectuant une thérapie conjugale ont complété une série de questionnaires en début de suivi, dont l’Échelle d’ajustement dyadique (Spanier, 1976), le Questionnaire sur les expériences d’attachement amoureux (Brennan, Clark, & Shaver, 1998) et le NEO-FFI (Costa & McCrae, 1992). Les données des 365 couples de l’échantillon sont d’abord analysées en appliquant une méthode fondée sur les modèles d’interdépendance acteur-partenaire (APIM) (Kashy & Snyder, 1995). Les résultats démontrent que la présence d’évitement de la proximité est négativement liée à la satisfaction des conjoints eux-mêmes et à celle de leur partenaire. La méthode APIM révèle aussi que plus l’écart entre les conjoints sur l’évitement et le névrotisme est grand, plus les partenaires rapportent être insatisfaits de leur relation. Les résultats sont ensuite examinés à l’aide d’une technique statistique, l’analyse des regroupements naturels ou des clusters, susceptible de mieux examiner la notion de compatibilité. Cette analyse montre la présence de sept regroupements naturels de conjoints selon leurs scores d’attachement et de névrotisme. De plus, lorsque ces clusters sont croisés en fonction de la détresse conjugale, trois grands sous-types de couples qui engendrent des profils de détresse conjugale distincts émergent des analyses. Ces clusters présentent enfin des différences qualitatives quant à la nature des mandats thérapeutiques confiés aux thérapeutes. Les implications des résultats sont discutées en regard de la validation du modèle de compatibilité fondé sur les notions d’attachement et de névrotisme. Certaines données de la présente thèse suggèrent que ce ne sont pas les caractéristiques de l’un ou de l’autre des conjoints prises isolément, mais plutôt la combinaison des caractéristiques des conjoints qui explique le mieux la nature et la gravité de la détresse conjugale vécue. Plusieurs défis conceptuels, théoriques et méthodologiques sont discutés et des pistes de recherches futures sont proposées afin de consolider les assises scientifiques du modèle de compatibilité.
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
Le CD36 est un récepteur éboueur de classe B exprimé par plusieurs types cellulaires dont les macrophages et les cellules endothéliales de la microvasculature. Le CD36 présente une haute affinité de liaison pour les ligands lipidiques tels que les lipoprotéines oxydées de basse densité (LDLox). De part sa capacité à internaliser les LDLox au niveau des macrophages et de son implication dans la formation des cellules spumeuses, le CD36 joue un rôle critique dans le développement des lésions athérosclérotiques. Nous avons testé l'hypothèse selon laquelle le EP 80317, un ligand synthétique sélectif du CD36, exerce des effets anti-athérosclérotiques chez les souris déficientes en apolipoprotéine E. Un traitement prolongé (12 semaines) avec le EP 80317 réduit fortement (de 51%) la surface des lésions athérosclérotiques par comparaison aux souris témoins. L'effet anti-athérosclérotique est associé à une diminution des taux de cholestérol plasmatique, à une réduction de l’internalisation des LDLox au niveau des macrophages et à une augmentation de l’expression des protéines impliquées dans le transport inverse du cholestérol. De plus, un traitement par le EP 80317 est également associé une diminution de l’expression aortique et plasmatique de protéines pro-inflammatoires. Nos études ont aussi montré un rôle pour le CD36 dans le recrutement des phagocytes mononucléés au niveau des lésions athérosclérotiques, tel que démontré par une réduction de l’accumulation des phagocytes mononucléés radiomarqués CD36–/– par rapport aux cellules CD36+/+. À l’échelle moléculaire, nous avons montré que les phospholipides oxydés induisent la phosphorylation de la kinase Pyk2 des podosomes des monocytes/macrophages de manière dépendante de l’expression du CD36 et de Src. Cette phosphorylation est atténuée par un traitement par le EP80317. Nos résultats appuient le rôle important du CD36 dans l’athérosclérose et suggèrent que les ligands synthétiques qui modulent la fonction du CD36 représentent potentiellement une nouvelle classe d'agents anti-athérosclérotiques. Le CD36 exprimé par les cellules endothéliales de la microvasculature est un récepteur de l’hétérodimère protéique S100A8/A9. Ces protéines s’associent à l’acide arachidonique intracellulaire (AA) des neutrophiles polymorphonucléaires (PMN) et le complexe S100A8/A9/AA peut être sécrété par les PMN activés au contact de l’endothélium. Nous avons vérifié l’hypothèse selon laquelle le CD36 exprimé par la microvasculature est impliqué dans le métabolisme transcellulaire de l’AA par la liaison du complexe S100A8/A9/AA et la réponse inflammatoire. Chez deux modèles murins d'inflammation aiguë (ischémie/reperfusion des membres inférieurs et poche d’air dorsale), nous avons observé que la réponse inflammatoire, notamment l’accumulation des PMN au niveau des sites inflammatoires, est diminuée en moyenne de 63% chez les souris CD36-/-. De même, un traitement par le EP 80317 ou par les anticorps anti-S100A8/A9 diminue chacun de 60% en moyenne l’extravasation des PMN vers les tissus inflammatoires. L’administration simultanée des deux traitements n’a aucun effet supplémentaire, et ces traitements n’exercent aucun effet chez les souris CD36-/-. Nos résultats appuient le rôle du récepteur CD36 de la microvasculature dans la régulation de la réponse inflammatoire. L’utilisation des ligands synthétiques du CD36 pourrait représenter une nouvelle avenue thérapeutique dans le traitement des réponses inflammatoires aiguës.
Resumo:
Dans les pays africains en général et au Niger en particulier, l’ordinateur commence à trouver sa place au sein de l’école. Ce processus d’intégration pédagogique des technologies de l’information et de la communication est fortement dépendant des paramètres technologiques, pédagogiques et humains. Réussir ce processus, c’est connaitre les jugements et les attitudes des acteurs de cette école vis-à-vis de ces technologies. À partir des représentations sociales, nous pouvons connaître la manière de penser, de s'approprier, d'interpréter la réalité quotidienne d’un groupe d’individus vis-à-vis d’un objet, en l’occurrence ici, les TIC. Le premier objectif de notre recherche est de connaitre les représentations sociales que les enseignants du secondaire ont de l’ordinateur. Pour cela, nous avons mené une investigation auprès de vingt enseignants. À l’issue des entrevues, nous avons identifié des représentations sociales sur les attitudes des enseignants à l’égard de l’ordinateur, sur les risques de l’ordinateur à l’école et enfin sur les avantages de l’ordinateur à l’école. L’ensemble de ces représentations sociales met en évidence une attitude positive des enseignants vis-à-vis de l’ordinateur à l’école même si pour certains enseignants, l’ordinateur est un outil qui favorise la démotivation des élèves et qui est vu comme un concurrent potentiel. Notre second objectif est de connaître les représentations sociales des TIC chez des élèves. Cinquante élèves provenant de deux écoles ont constitué la population de notre étude. Après avoir soumis les entretiens recueillis à une analyse de contenu, nous sommes parvenu à des résultats qui mettent en évidence des représentations sociales sur les connaissances des TIC et sur son utilisation dans le cadre de l’apprentissage. Notre recherche devait aussi déterminer si les représentations sociales étaient fonction de la formation aux TIC. Les résultats du test d’hypothèse du Khi-carré montrent que la formation aux TIC n’influence pas l’émergence des représentations sociales. Le troisième objectif de notre recherche porte sur la construction d’une échelle de mesure des représentations sociales des TIC chez des élèves. Après avoir été élaborée l’échelle de mesure a été administrée à 265 élèves de deux lycées. Les résultats de l’analyse factorielle exploratoire montrent que l’échelle a une assez bonne cohérence interne. L’ensemble des résultats garantit la validité et la fidélité de l’échelle. L’ensemble des résultats montre que, bien que son utilisation soit très récente dans les écoles nigériennes, des représentations sociales ont été engendrées à l’endroit des TIC. Les contenus de ces représentations montrent des attitudes favorables aux TIC dans l’apprentissage.
Resumo:
réalisé en cotutelle avec la Faculté des Sciences de Tunis, Université Tunis El Manar.
Resumo:
Dans ce mémoire, nous avons utilisé le logiciel R pour la programmation.
Resumo:
Depuis ces deux dernières décennies, des efforts considérables en psychologie cognitive et neuropsychologie ont été déployés pour mieux comprendre les dynamiques entre les différents systèmes cognitifs (fonctions exécutives, mémoire, langage, etc.). L’observation d’une co-existence entre des atteintes en rétention à court terme verbale (RCTv) et en langage dans plusieurs pathologies a conduit certains chercheurs à concevoir une alternative à la conceptualisation classique de la RCTv, telle que proposée par le modèle initial de la mémoire de travail de Baddeley (1986). Particulièrement, les travaux sur l’aphasie ont conduit à l’émergence d’une approche psycholinguistique de la RCTv, postulant que le traitement et le maintien des mots font appel à des processus communs. Cette approche, et particulièrement le modèle d’activation interactive (N. Martin & Gupta, 2004; N. Martin & Saffran, 1997), prédit que les capacités en RCTv sont notamment modulées par les caractéristiques linguistiques engagées durant l’épreuve, variant selon la nature des items verbaux et la modalité de rappel, ainsi que par les compétences linguistiques des individus. L’objectif de la présente thèse était de tester ces prédictions à partir d’une exploration des relations entre le traitement sémantique des mots et la RCTv chez l’adulte sain (article 1) et dans la démence de type Alzheimer (DTA) (article 2). Dans le premier article, deux expériences mettent en évidence l’influence des liens associatifs entre les mots sur les capacités à maintenir temporairement des informations verbales. Les participants ont tendance à faussement reconnaître des mots associés aux mots de la liste, reflet d’une activation du réseau sémantique durant la rétention temporaire. Cette contribution sémantique est accentuée en situation de suppression articulatoire, une condition qui empêche le participant de répéter les listes durant la tâche. Les résultats du second article indiquent que la modalité de réponse module différemment la performance en RCTv chez les participants âgés sans atteinte neurologique et ceux atteints de la DTA. Ces données en RCTv sont compatibles avec les atteintes spécifiques du traitement du mot, également trouvées chez le groupe avec DTA. Les implications théoriques et cliniques de ces résultats sont discutées. Les limites et perspectives futures sont également abordées.
Resumo:
L’âge, le génotype et les traumatismes crâniens (TCC) sont trois facteurs de risque majeurs du développement de la maladie d’Alzheimer (MA). Avec une accumulation d’évidences démontrant la persistance d’anomalies cérébrales suite aux plus légers des TCC, qui affichent d’ailleurs la plus haute incidence, il devient impératif de tester l’hypothèse selon laquelle même les commotions cérébrales puissent interagir avec l’âge et les gènes afin de précipiter la neurodégénération. Trente ex-athlètes de haut niveau (âge M = 60 ans), dont la moitié a subi des commotions cérébrales il y a plus de 30 ans, ont été évalués en neuropsychologie, en neuroimagerie multimodale ainsi qu’en génétique. De nombreuses mesures neuroanatomiques, dont l’expansion du volume des ventricules latéraux, se trouvent à corréler avec divers déficits cognitifs (mémoire différée et de reconnaissance) détectés chez les participants commotionnés. D’un intérêt particulier, certains de ces résultats sont modulés par le polymorphisme nucléotidique simple du gène Apolipoprotéine E. Ces résultats appuient l’hypothèse selon laquelle la commotion cérébrale chez de jeunes athlètes serait un facteur de risque de neurodégénération dans le vieillissement normal.
Resumo:
Nous présentons un relevé et une analyse spectroscopiques de plus de 1300 naines blanches brillantes (V < 17.5) et riches en hydrogène. Des spectres dans le domaine du visible avec un rapport signal-sur-bruit élevé ont été obtenus et les données ont ensuite été analysées avec notre méthode spectroscopique habituelle qui compare les profils observés des raies de Balmer à des spectres synthétiques calculés à partir de la dernière génération de modèles d’atmosphère. D’abord, nous présentons une analyse détaillée de 29 naines blanches de type DAO utilisant une nouvelle grille de modèles qui inclut du carbone, de l’azote et de l’oxygène aux abondances solaires. Nous démontrons que l’ajout de ces métaux dans les modèles d’atmosphère est essentiel pour surmonter le problème des raies de Balmer qui empêche un ajustement simultané de toutes les raies de Balmer avec des paramètres atmosphériques cohérents. Nous identifions également 18 naines blanches chaudes de type DA qui souffrent aussi du problème des raies de Balmer. Des spectres dans l’ultraviolet lointain obtenus des archives du satellite FUSE sont ensuite examinés pour démontrer qu’il existe une corrélation entre les abondances métalliques élevées et les cas du problème des raies de Balmer. Les conséquences de ces résultats pour toutes les naines blanches chaudes et riches en hydrogène sont discutées. En particulier, le scénario évolutif pour les naines blanches DAO est révisé et nous n’avons plus besoin d’évoquer l’évolution post-EHB pour expliquer la majorité des étoiles DAO. Finalement, nous élaborons un scénario dans lequel les métaux engendrent un faible vent stellaire qui expliquerait la présence d’hélium dans les étoiles DAO. Ensuite, nous présentons les résultats globaux de notre relevé, ce qui inclut une analyse spectroscopique de plus de 1200 naines blanches de type DA. En premier lieu, nous présentons le contenu spectroscopique de notre échantillon qui contient de nombreuses classifications erronées ainsi que plusieurs naines blanches de type DAB, DAZ et magnétiques. Nous discutons ensuite des nouveaux modèles d'atmosphère utilisés dans notre analyse. De plus, nous utilisons des modèles de naines M pour obtenir de meilleures valeurs des paramètres atmosphériques pour les naines blanches qui sont membres de systèmes binaires DA+dM. Certaines naines blanches uniques et quelques systèmes binaires double-dégénérées sont également analysés de manière plus détaillée. Nous examinons ensuite les propriétés globales de notre échantillon incluant la distribution de masse et la distribution de masse en fonction de la température. Nous étudions également la façon dont les nouveaux profils de raies de Balmer affectent la détermination des paramètres atmosphériques. Nous testons la précision et la robustesse de nos méthodes en comparant nos résultats avec ceux du projet SPY, dans le cadre duquel plus de 300 des mêmes naines blanches ont été analysées d'une manière complètement indépendante. Finalement, nous faisons un retour sur la bande d'instabilité des naines blanches pulsantes de type ZZ Ceti pour voir quels effets ont les nouveaux profils de raies sur la détermination de ses frontières empiriques.
Resumo:
L’insuffisance cardiaque est une pathologie provoquant une diminution importante des capacités fonctionnelles des patients ainsi qu’une diminution drastique de la qualité de vie. L’évaluation des capacités fonctionnelles est généralement effectuée par une épreuve d’effort maximal. Cependant pour plusieurs patients, cet effort est difficile à compléter. Les objectifs de l’étude présentée dans ce mémoire sont : (1) valider trois méthodes d’évaluation de la capacité fonctionnelle et aérobie des sujets souffrant d’insuffisance cardiaque avec un complexe QRS élargi; (2) chercher à établir le profil des patients démontrant une meilleure tolérance à l’exercice malgré une consommation maximale d’oxygène identique; et (3) démontrer les conséquences de la présence et de la magnitude de l’asynchronisme cardiaque dans la capacité fonctionnelle et la tolérance à l’exercice. Tous les sujets ont été soumis à un test de marche de six minutes, un test d’endurance à charge constante sur tapis roulant et à une épreuve d’effort maximal avec mesure d’échanges gazeux à la bouche. Les résultats ont montré une association significative entre les épreuves maximale et plus spécifiquement sous-maximale. De plus, une meilleure tolérance à l’exercice serait associée significativement à une plus grande masse du ventricule gauche. Finalement, les résultats de notre étude n’ont pas montré d’effet d’un asynchronisme cardiaque sur la performance à l’effort tel qu’évalué par nos protocoles.
Resumo:
Nous avons déjà démontré que les probiotiques réduisaient l'apoptose observée dans le système limbique après un infarctus du myocarde (IM), suggérant un rôle anti-dépresseur potentiel des probiotiques. Cette étude a été conçue pour déterminer si les probiotiques pouvaient atténuer le comportement dépressif observé après un infarctus du myocarde. Un autre objectif visait à démontrer qu’une altération de la barrière intestinale pourrait avoir lieu lors d’un IM et que les probiotiques pourraient empêcher cette altération de la perméabilité intestinale. Méthodes: Des rats mâles Sprague-Dawley ont reçu des probiotiques (1 milliard de cellules bactériennes vivantes de Lactobacillus helveticus R0052 et Bifidobacterium longum R0175) ou le véhicule tous les jours en dilution dans leur eau, débutant 1 semaine avant l'induction d'une ischémie myocardique. Un infarctus a ensuite été induit chez la moitié des rats, par l'occlusion de l'artère coronaire antérieure gauche (40 minutes) suivie d'une reperfusion. Les rats témoins, l'autre moitié de la cohorte, ont été soumis à la même procédure sans occlusion coronarienne. Une semaine après l'infarctus, les animaux ont été resoumis au traitement préalable jusqu'au moment du sacrifice. Le comportement dépressif a été évalué par trois tests soit: l'interaction sociale, le test de nage forcée et le test d'évitement passif. Résultats: Les résultats obtenus indiquent qu'en absence d'infarctus, les probiotiques n'ont pas d'effet significatif. Toutefois, en dépit de taille similaire IM, des rats traités avec des probiotiques, ont démontré davantage d'interactions sociales et une meilleure performance dans le test de nage forcée et d'évitement passif, comparativement à des rats du groupe IM sans probiotique (p<0,05). Conclusion: Les probiotiques atténuent le comportement dépressif observé après infarctus du myocarde par un mécanisme qui pourrait impliquer l'intégrité des intestins.
Resumo:
La tumeur des cellules de la granulosa (GCT) représente 5% des cas de cancers ovariens chez la femme. Bien que considérées comme peu malignes, la mort survient dans 80% des cas suite à une recrudescence de la maladie. En dépit de ces statistiques sinistres, peu d’études ont été portées sur ce type de cancer. Le premier objectif de cette étude consistait à élucider les mécanismes moléculaires causant les GCT en démontrant l’implication de la voie de signalisation PI3K/AKT dans leur étiologie. Pour ce faire, nous avons employé la technologie Cre-Lox afin de cibler le gène Pten (antagoniste de cette voie) spécifiquement dans les cellules de la granulosa chez la souris. Ces souris (Ptenflox/flox;Amhr2cre/+) ont occasionnellement développé des GCT, soutenant notre hypothèse de l’importance de la voie PI3K/AKT dans leur étiologie. La voie WNT/CTNNB1 est une autre voie de signalisation qui a récemment été impliquée dans le développement des GCT. Dans le cadre de ce projet, nous avons également testé l’existence possible d’une synergie fonctionnelle entre les voies WNT/CTNNB1 et PI3K/AKT dans le développement de la maladie. Pour ce faire, nous avons créé le modèle transgénique Ptenflox/flox;Ctnnb1flox(ex3)/+;Amhr2cre/+, chez lequel les cellules de la granulosa présentant non seulement une désinhibition de la voie PI3K/AKT, mais aussi une suractivation de la voie WNT/CTNNB1. Tel que prédit, les souris Ptenflox/flox;Ctnnb1flox(ex3)/+;Amhr2cre/+ ont développé une forme de GCT beaucoup plus agressive que celle observée chez les femelles Ptenflox/flox;Amhr2cre/+. Spécifiquement, le développement des tumeurs se déclenchait plus tôt, leur croissance était beaucoup plus rapide, nous avons pu observer des métastases pulmonaires et la dissémination des cellules tumorales dans la cavité péritonéale, et la maladie était invariablement fatale avant l’âge de 8 semaines. Le modèle Ptenflox/flox;Ctnnb1flox (ex3)/+;Amhr2cre/+ a donc servi à démontrer l'existence d'une synergie entre les voies WNT/CTNNB1 et PI3K/AKT dans le développement de la GCT. De façon inattendue, les souris Ptenflox/flox;Amhr2cre/+ ont aussi présenté un phénotype de sous-fertilité qui n’était pas d’origine ovarienne. Il a récemment été démontré que la souche Amhr2cre dirige l’expression de Cre non seulement aux cellules de la granulosa, mais aussi au stroma utérin et au myomètre. Le second objectif de ce travail était donc de démontrer si et comment le phénotype d’infertilité chez les souris Ptenflox/flox;Amhr2cre/+ pouvait découler d’un défaut utérin. Lors de l'implantation, les cellules du stroma utérin se différencient en cellules déciduelles pour former la décidua maternelle (DM), qui se régresse ensuite par apoptose afin de faciliter l’invasion des cellules trophoblastiques. De plus, la DM, en collaboration avec le tissu foetal, recrute des uNKs dont le rôle est de remodeler les artères spiralées pour augmenter l’apport sanguin maternel vers le foetus en développement. Nous avons pu démontrer que l'utérus des femelles gestantes Ptenflox/flox;Amhr2cre/+ présentait une DM anormalement résistante à l'apoptose, moins de uNKs et des artères spiralées non-remodelées. Par conséquent, l’invasion des cellules du trophoblaste était restreinte, compromettant le développement et la survie de l'embryon. Nous avons donc établi pour la première fois l’importance de Pten lors de la décidualisation et de l’invasion du trophoblaste.
Resumo:
Contexte : La détérioration de l’état nutritionnel liée à la perte d’autonomie qui accompagne l’évolution de la démence du type Alzheimer (DTA) peut être limitée par un proche aidant efficace. À long terme, le rôle soignant du proche aidant peut affecter sa propre santé physique et psychologique. Objectifs : (1) décrire les caractéristiques sociodémographiques des patients et de leurs proches aidants; (2) examiner l’évolution de la maladie et des variables à l’étude au cours de la période de suivi; (3) explorer la relation possible entre le fardeau perçu du proche aidant, l’état nutritionnel des patients et la stabilité du poids corporel du proche aidant. Hypothèses : L’absence du fardeau chez l’aidant est associée à un meilleur état nutritionnel chez le patient; la détérioration de la fonction cognitive chez le patient s’accompagne d’une augmentation du fardeau perçu par l’aidant; la dégradation du fardeau chez l’aidant conduit à sa perte de poids. Méthode : Les données analysées proviennent de l’étude « Nutrition-mémoire » menée entre 2003 et 2006 dans les trois cliniques de cognition situées dans des hôpitaux universitaires à Montréal. Quarante-deux patients avec une DTA probable vivant dans la communauté et leurs aidants ont été suivis en dyades pendant une période de dix-huit mois. Les analyses ont porté sur les données colligées du recrutement à douze mois plus tard en raison du nombre restreint des patients interviewés à la dernière mesure. La relation entre le fardeau de l’aidant et les variables caractérisant l’état nutritionnel chez les patients a été évaluée à l’aide des analyses de corrélations, du test khi-carré ou du test de Fisher. L’état cognitif des patients était évalué à l’aide du score au Mini-Mental State Examination, le fardeau de l’aidant était estimé par le score au « Zarit Burden Interview », l’état nutritionnel des patients était défini par la suffisance en énergie et en protéines, le score à l’outil de dépistage nutritionnel des aînés, le poids et l’indice de masse corporelle des patients. Résultats : Le fardeau perçu des aidants était associé à la suffisance en énergie chez les patients. Le nombre de patients ayant des apports insuffisants en énergie était plus important chez les dyades où les aidants percevaient un fardeau plus élevé. Toutefois, aucune association n’a été observée entre le fardeau des aidants et le risque nutritionnel ou la suffisance en protéines chez les patients. La détérioration de la fonction cognitive des patients ne semble pas avoir provoqué une augmentation du fardeau chez leurs aidants. De plus, l’augmentation du fardeau de l’aidant n’était pas accompagnée d’une perte de son poids corporel. Par ailleurs, un fardeau plus important a été observé chez les aidants des patients obèses ou présentant un embonpoint. Conclusion : La réduction du fardeau perçu des aidants permettrait d’améliorer les apports alimentaires des patients et ainsi de limiter ou minimiser le risque de détérioration de leur état nutritionnel et de perte de poids.
Resumo:
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.