1000 resultados para Modèles à effets mixtes
Resumo:
L’exposition du fœtus à l’éthanol est reconnue comme étant la principale cause de maladies évitables lors du développement. Une forte exposition à l’alcool durant la gestation peut occasionner des dysmorphies cranio-faciales et des retards mentaux, ainsi que des troubles d’apprentissages et du comportement. Le développement du système visuel est également perturbé chez une grande majorité d’enfants qui ont été exposés à l’alcool. Lorsque les doses prises sont élevées, le système visuel peut présenter une panoplie de symptômes comme une augmentation de la tortuosité des vaisseaux rétiniens, de la myopie, de l’hypermétropie, du strabisme et une hypoplasie du nerf optique. Cependant, très peu d’études se sont penchées sur les effets de plus faibles doses sur le développement du système visuel du primate. Le singe est un excellent modèle pour étudier le système visuel car il possède plusieurs similitudes avec l’humain tant au niveau développemental qu’au niveau structurel. De plus, le singe utilisé, le Chlrocebus aethiops sabeus, possède l’avantage que des individus de cette espèce ont une consommation naturelle et volontaire à l’alcool. Une étude (Clarren et al., 1990) a suggéré qu’une faible exposition à l’alcool du fœtus du primate non humain occasionnait une diminution du nombre de cellules ganglionnaires de la rétine (CGRs). Étant donné que le corps genouillé latéral dorsal (CGLd) reçoit la plupart de ses intrants de la rétine, il est raisonnable d’assumer que les couches rétino-récipientes du CGLd devraient être aussi affectées. Nous avons alors émis l’hypothèse que le CGLd devrait également subir une diminution du nombre de neurones. Pour la première fois, nous avons utilisé une méthode stéréologique pour quantifier le nombre de cellules dans les couches parvo- (P) et magnocellulaires (M) du CGLd. Contrairement à notre hypothèse de départ, nous n’avons pas observé de diminution dans le nombre global de neurones dans le CGLd des animaux exposés à l’alcool par rapport à des sujets contrôles, ni une diminution de son volume. Nous avons toutefois observé une diminution de la taille du corps cellulaire seulement dans la population M du CGLd. Ces résultats suggèrent que le système visuel est affecté par une faible exposition à l’alcool durant son développement qui devrait se traduire sur le comportement par des déficits dans les fonctions de la voie M.
Resumo:
Le stress oxydatif est impliqué dans l’expression du récepteur B1 des kinines (RB1) dans différents modèles de diabète et d'hypertension. Puisque l'angiotensine II (Ang II) et l'endothéline-1 (ET-1) sont des peptides prooxydants impliqués dans les maladies cardiovasculaires, leur contribution dans l'augmentation de l'expression du RB1 a été étudiée dans des cellules musculaires lisses vasculaires (CMLV). Le QRT-PCR et l’immunobuvardage de type Western ont été utilisés pour mesurer l’expression du RB1 dans des CMLV dérivées de la lignée A10 et de l’aorte de rats Sprague-Dawley. Cette étude montre que l’Ang II augmente l’expression du RB1 (ARNm et protéine) en fonction de la concentration et du temps (maximum 1 μM entre 3-6 h). Cette augmentation implique le récepteur AT1, la PI3K et le NF-κB, mais non le récepteur AT2 et ERK1/2. Aussi, le récepteur ETA de l’ET-1 est impliqué dans la réponse à l’Ang II à 6-8 h et non à 1-4 h. Par contre, l’ET-1 augmente l’expression du RB1 (maximum 2-4 h) via la stimulation des récepteurs ETA et ETB. L’augmentation du RB1 causée par l’Ang II et l’ET-1 est bloquée par les antioxydants (N-acétyl-cystéine et diphénylèneiodonium). Ces résultats suggèrent que l’Ang II induit le RB1 dans les CMLV par le récepteur AT1 dans la première phase, et par la libération d’ET-1 (majoritairement par ETA) dans la phase tardive, via le stress oxydatif et l’activation de la PI3K et du NF-κB. Ces résultats précisent le mécanisme impliqué dans la surexpression du RB1 ayant des effets néfastes dans le diabète et l'hypertension.
Resumo:
Les commotions cérébrales subies en contexte sportif constituent un sujet préoccupant. Il est estimé qu’aux États-Unis, environ cinq pourcent de l’ensemble des athlètes subiront une commotion cérébrale. Celle-ci est considérée comme une blessure transitoire dans la majorité des cas. Dans le domaine de la commotion cérébrale sportive, le phénomène de risque accru chez des athlètes ayant subi préalablement des commotions cérébrales est bien documenté. Cet aspect remet en question l’aspect transitoire de la blessure. Les techniques d’imagerie fonctionnelle offrent un grand potentiel dans la compréhension de cette pathologie en montrant notamment les différences fonctionnelles chez des participants ayant subi un traumatisme crânio-cérébral léger en l’absence de résultats comportementaux. Il est probable que des altérations fonctionnelles persistent au-delà de la phase de récupération postsymptômes. L’électrophysiologie, en particulier les potentiels évoqués cognitifs sont un outil de choix pour étudier la question en raison de leur sensibilité et de la mesure fonctionnelle qu’ils permettent d’obtenir. Les potentiels évoqués cognitifs consistent en une réponse électrique cérébrale moyenne générée lors de l’accomplissement d’une tâche. Il est possible d’identifier différentes composantes dans le tracé d’un potentiel évoqué; ces composantes sont associées à différents aspects de l’activité électrique cérébrale durant le traitement perceptuel et cognitif.Les articles scientifiques inclus dans cette thèse se penchent sur les effets de commotions cérébrales multiples chez des athlètes plusieurs mois après la dernière commotion. Dans un premier temps, l’aspect temporel est évalué par le biais de la mesure de la P3a et la P3b dans différents groupes d’athlètes. Ces composantes sont liées aux processus de mémoire et d’attention. Les résultats suggèrent que, malgré un fonctionnement normal, les athlètes ayant subi des commotions cérébrales éprouveraient de probables changements cognitifs sous-cliniques persistants se traduisant par une atténuation des P3a et P3b. Des altérations seraient aussi présentes quelques années après la dernière commotion, mais de façon plus subtile. La deuxième étude soumise s’intéresse aux processus électrophysiologiques liés au maintien de l’information en mémoire de travail visuel chez des athlètes ayant subi plusieurs commotions cérébrales. La mesure utilisée est la SPCN (sustained posterior controlateral negativity), une composante ERP spécifique au processus cognitif étudié. Les résultats montrent non seulement une composante atténuée chez les athlètes ayant subi trois commotions cérébrales ou plus, mais aussi une modulation de la composante en fonction du nombre de commotions cérébrales subies. Ces résultats pourraient contribuer à expliquer le risque accru de subir des commotions cérébrales subséquentes observées chez ces athlètes. En lien avec la littérature, ces données pourraient s’expliquer par la présence de déficits cognitifs sous-cliniques ou encore par la mise en place de mécanismes compensatoires. Enfin, ces résultats invitent à une grande prudence dans la gestion des cas de commotions cérébrales ainsi qu’à un effort d’éducation plus poussé chez les jeunes athlètes afin qu’ils puissent prendre les meilleures décisions concernant leur avenir.
Resumo:
Les propriétés pharmacocinétiques d’un nouveau médicament et les risques d’interactions médicamenteuses doivent être investigués très tôt dans le processus de recherche et développement. L’objectif principal de cette thèse était de concevoir des approches prédictives de modélisation du devenir du médicament dans l’organisme en présence et en absence de modulation d’activité métabolique et de transport. Le premier volet de recherche consistait à intégrer dans un modèle pharmacocinétique à base physiologique (PBPK), le transport d’efflux membranaire gouverné par les glycoprotéines-P (P-gp) dans le cœur et le cerveau. Cette approche, basée sur des extrapolations in vitro-in vivo, a permis de prédire la distribution tissulaire de la dompéridone chez des souris normales et des souris déficientes pour les gènes codant pour la P-gp. Le modèle a confirmé le rôle protecteur des P-gp au niveau cérébral, et a suggéré un rôle négligeable des P-gp dans la distribution tissulaire cardiaque pour la dompéridone. Le deuxième volet de cette recherche était de procéder à l’analyse de sensibilité globale (ASG) du modèle PBPK précédemment développé, afin d’identifier les paramètres importants impliqués dans la variabilité des prédictions, tout en tenant compte des corrélations entre les paramètres physiologiques. Les paramètres importants ont été identifiés et étaient principalement les paramètres limitants des mécanismes de transport à travers la membrane capillaire. Le dernier volet du projet doctoral consistait à développer un modèle PBPK apte à prédire les profils plasmatiques et paramètres pharmacocinétiques de substrats de CYP3A administrés par voie orale à des volontaires sains, et de quantifier l’impact d’interactions médicamenteuses métaboliques (IMM) sur la pharmacocinétique de ces substrats. Les prédictions des profils plasmatiques et des paramètres pharmacocinétiques des substrats des CYP3A ont été très comparables à ceux mesurés lors d’études cliniques. Quelques écarts ont été observés entre les prédictions et les profils plasmatiques cliniques mesurés lors d’IMM. Cependant, l’impact de ces inhibitions sur les paramètres pharmacocinétiques des substrats étudiés et l’effet inhibiteur des furanocoumarins contenus dans le jus de pamplemousse ont été prédits dans un intervalle d’erreur très acceptable. Ces travaux ont contribué à démontrer la capacité des modèles PBPK à prédire les impacts pharmacocinétiques des interactions médicamenteuses avec une précision acceptable et prometteuse.
Resumo:
Objectif: Cette étude visait à évaluer les effets aigus d’une session d’exercice aérobie sur la performance à une tâche sollicitant les fonctions cognitives exécutives et à déterminer la durée de ces effets. Méthode: Quarante-huit participants universitaires ont été divisés en deux groupes expérimentaux et un groupe contrôle. L'intervention expérimentale consistait à 30 minutes d'exercice à une intensité sous-maximale sur tapis roulant. Les deux groupes expérimentaux ont complété la tâche de Stroop soit immédiatement (groupe 1) ou 10 minutes (groupe 2) après la session d’exercice. Le groupe contrôle a complété la même tâche cognitive mais sans pratique d'exercice. Résultats: Les analyses statistiques indiquent qu’il n’y a pas d’effet d’amélioration de la performance cognitive et ce, peu importe le délai d’exécution de la tâche de Stroop suite à l’exercice. Conclusion : Une seule session d’exercice n’a aucun effet sur les fonctions exécutives. Les limites de l’étude sont présentées en relation avec les résultats obtenus. Les implications des résultats sont discutées en terme de retombées pour les recherches futures.
Resumo:
La tolérance orale permet la modulation de la réponse immunitaire à l’égard des antigènes exogènes présents dans la lumière intestinale. Essentiels à l’établissement d’une relation symbiotique entre le système immunitaire et la flore intestinale, l’induction et le maintien de la tolérance orale reposent sur différents mécanismes immunologiques. Parmi eux, l’induction de cellules T régulatrices par les cellules dendritiques et de mécanismes apoptotiques. Or, la glycoprotéine membranaire CD47 est impliquée, en périphérie, dans ces mécanismes. Cependant, le rôle de CD47 dans la tolérance orale n’est pas connu. À l’aide d’un modèle murin déficient en CD47, nous avons démontré principalement, que l’absence de CD47 est associée à une diminution de 50 % de la proportion de cellules dendrites myéloïdes CD11b+CD103- retrouvées dans les ganglions mésentériques. Suite au transfert adoptif de cellules T antigènes spécifiques dans nos différents modèles expérimentaux, on a, aussi, observé une diminution de 45 % de leur niveau d’activation dans les ganglions mésentériques. Malgré les effets observés, le CD47 n’est pas impliqué dans l’induction d’une réaction de tolérance orale secondaire à l’administration intragastrique de fortes doses d’ovalbumine. Cependant, nous avons démontré que CD47 est impliquée au niveau de la migration des cellules dendritiques de la peau et de certaines sous-populations retrouvées dans les ganglions mésentériques.
Resumo:
La transplantation d’îlots chez des sujets diabétiques permet la normalisation de leur glycémie mais nécessite l’utilisation d’immunosuppresseurs. Afin d’éliminer l’utilisation de ceux-ci, une capsule d’alginate capable d’immunoprotéger l’îlot a été proposée. Cependant, un problème persiste : la survie de l’implant est limitée. Deux moyens afin d’améliorer ce facteur seront présentés dans ce mémoire: l’utilisation d’alginate purifié et la co-encapsulation des îlots avec des cellules canaliculaires pancréatiques. La première étude rapporte un aspect nouveau : les effets directs de l’alginate non-purifié, versus purifié, sur la survie d’îlots encapsulés. Ceci est démontré in vitro sur la viabilité à long terme des îlots, leur fonction et l’incidence de leur mort cellulaire par apoptose et nécrose. Ces investigations ont permis de conclure que l’alginate purifié permet de maintenir à long terme une meilleure survie et fonction des îlots. De plus, cette étude ajoute un autre rôle aux contaminants de l’alginate en plus de celui d’initier la réaction immunitaire de l’hôte; celle-ci étant indirectement reliée à la mort des îlots encapsulés. La deuxième étude consiste à déterminer les impacts possibles d’une co-encapsulation d’îlots de Langerhans avec des cellules canaliculaires pancréa-tiques. Les résultats obtenus démontrent que cette co-encapsulation n’améliore pas la survie des îlots microencapsulés, par des tests de viabilité et de morts cellulaires, ni leur fonction in vivo testée par des implantations chez un modèle murin immmunodéficient. Pour conclure, la survie des îlots encapsulés peut être améliorée par la purification de l’alginate mais reste inchangée lors d’une co-encapsulation avec des cellules canaliculaires pancréatiques.
Resumo:
Essai cinique randomisé
Resumo:
Le vieillissement démographique augmente rapidement la représentation des personnes âgées de plus de 50 ans parmi les utilisateurs d’aides à la mobilité motorisées (AMMs), telles que le fauteuil roulant motorisé et le quadriporteur. Le but général de la thèse est de rendre compte d’une démarche d’analyse des effets des AMMs au cours des premiers 18 mois d’utilisation chez les adultes d’âge moyen et les aînés. Notre question de recherche concerne la nature et l'importance des effets sur le fonctionnement, la pertinence sociale et le bien-être subjectif, ainsi que les liens entre les divers facteurs impliqués dans leur impact optimal. La thèse s’articule en trois volets, synthétique, méthodologique et analytique, dont les principaux résultats sont présentés dans quatre articles scientifiques. Le volet synthétique comprend une recension systématique qui révèle la représentation marginale des personnes âgées de plus de 50 ans dans les publications scientifiques sur les effets des AMMs et le faible niveau de preuve dans ce champ d’études. Les travaux liés à ce volet proposent également un cadre d’analyse reliant l’intention d’utiliser l’AMM, les habitudes de déplacements, les dimensions d’effets des AMMs sur le fonctionnement, la pertinence sociale et le bien-être subjectif, ainsi que quatre catégories de cofacteurs associés à l’utilisation (personne, aide technique, intervention, environnement). Le volet méthodologique assemble un dispositif de mesure comprenant 5 questionnaires et 18 indicateurs arrimés au cadre d’analyse et démontre l’applicabilité de l’ensemble des questionnaires pour une administration téléphonique. La validation transculturelle de deux questionnaires implique deux études réalisées auprès d’utilisateurs d’AMMs âgés de 50 à 84 ans (n=45). Ces travaux confirment la fidélité test-retest et l’équivalence des questionnaires traduits avec la version d’origine. Finalement, le volet analytique se concentre sur l’étude des habitudes de déplacements chez 3 cohortes (n=116) de personnes âgées de 50 à 89 ans, recrutées en fonction du stade d’utilisation de l’AMM. Les résultats suggèrent une amélioration de l’aire de mobilité après l’utilisation initiale ou long terme de l’AMM en comparaison avec une cohorte en attente de l’AMM, ainsi qu’une augmentation significative de la fréquence des déplacements autour du domicile et dans le voisinage. Trois facteurs associés à une aire de mobilité optimale, à savoir le genre, la nature des objectifs de participation de l’utilisateur et le type d’appareil utilisé, sont identifiés par des analyses de régression linéaires contrôlant pour l’âge. La thèse soutient l’importance de tenir compte de l’environnement et d’une combinaison de facteurs reliés à la personne et à l’aide technique pour saisir les effets des AMMs au cours des premiers mois d’utilisation. Ces résultats ouvrent la voie au suivi systématique des utilisateurs d’AMMs par les professionels de réadaptation, puisqu’ils confirment l’utilité du dispositif pour en mesurer les effets et ciblent les déterminants de la mobilité des utilisateurs d’AMMs âgés de plus de 50 ans.
Resumo:
La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.
Resumo:
Cette thèse propose une analyse croisée du cinéma et du jeu vidéo sous un angle interdisciplinaire afin de montrer la réappropriation et le remédiatisation des structures narratives et formelles du jeu vidéo dans le cinéma d’effets visuels du tournant du XXIe siècle. Plus spécifiquement, la thèse porte sur l’analyse de trois figures majeures du jeu vidéo et de l’animation dans la trilogie Matrix (Larry et Andy Wachowski, 1999-2003), dans Avalon (Mamoru Oshii, 2001) et dans Kung-Fu Hustle (Stephen Chow, 2004). La première section de la thèse consiste en une mise en place théorique par la présentation de certains paramètres esthétiques du cinéma d’effets visuels et du jeu vidéo. Quelques réflexions préliminaires sur l’esthétique du cinéma d’effets visuels sont d’abord esquissées avant de présenter les principales relations transmédiales entre le cinéma et le jeu vidéo. Ensuite, c’est le cinéma transludique qui est défini alors que le terme découle de la synergie singulière entre le cinéma et le jeu vidéo. Puisque le cinéma transludique concerne spécifiquement la récupération de l’esthétique du jeu vidéo dans le cinéma contemporain, les prémisses d’une esthétique du jeu vidéo sont alors établies. Dans la deuxième section, ce sont les figures et sous-figures au cœur de cette réflexion qui sont développées, pour ensuite les appliquer aux films du corpus. La première figure à l’étude est celle de l’exploration, alors que l’analyse de la signification de cette figure dans la conception de jeu vidéo et dans les récits cinématographiques de science-fiction montre l’importance de la navigation comme expérience spatio-temporelle dans les univers virtuels. Ensuite, c’est l’utilisation récurrente de la figure vidéoludique du niveau (level) dans le cinéma hybride contemporain qui est soulignée, figure qui structure autant le récit que la forme représentationnelle des films transludiques. Enfin, la figure de la métamorphose, indissociable du cinéma d’animation, est étudiée afin de souligner l’importance de cette figure dans la création numérique et d’expliquer la transformation de l’image qui affecte le cinéma transludique, image qualifiée d’image-frontière.
Resumo:
Cette thèse examine les impacts sur la morphologie des tributaires du fleuve Saint-Laurent des changements dans leur débit et leur niveau de base engendrés par les changements climatiques prévus pour la période 2010–2099. Les tributaires sélectionnés (rivières Batiscan, Richelieu, Saint-Maurice, Saint-François et Yamachiche) ont été choisis en raison de leurs différences de taille, de débit et de contexte morphologique. Non seulement ces tributaires subissent-ils un régime hydrologique modifié en raison des changements climatiques, mais leur niveau de base (niveau d’eau du fleuve Saint-Laurent) sera aussi affecté. Le modèle morphodynamique en une dimension (1D) SEDROUT, à l’origine développé pour des rivières graveleuses en mode d’aggradation, a été adapté pour le contexte spécifique des tributaires des basses-terres du Saint-Laurent afin de simuler des rivières sablonneuses avec un débit quotidien variable et des fluctuations du niveau d’eau à l’aval. Un module pour simuler le partage des sédiments autour d’îles a aussi été ajouté au modèle. Le modèle ainsi amélioré (SEDROUT4-M), qui a été testé à l’aide de simulations à petite échelle et avec les conditions actuelles d’écoulement et de transport de sédiments dans quatre tributaires du fleuve Saint-Laurent, peut maintenant simuler une gamme de problèmes morphodynamiques de rivières. Les changements d’élévation du lit et d’apport en sédiments au fleuve Saint-Laurent pour la période 2010–2099 ont été simulés avec SEDROUT4-M pour les rivières Batiscan, Richelieu et Saint-François pour toutes les combinaisons de sept régimes hydrologiques (conditions actuelles et celles prédites par trois modèles de climat globaux (MCG) et deux scénarios de gaz à effet de serre) et de trois scénarios de changements du niveau de base du fleuve Saint-Laurent (aucun changement, baisse graduelle, baisse abrupte). Les impacts sur l’apport de sédiments et l’élévation du lit diffèrent entre les MCG et semblent reliés au statut des cours d’eau (selon qu’ils soient en état d’aggradation, de dégradation ou d’équilibre), ce qui illustre l’importance d’examiner plusieurs rivières avec différents modèles climatiques afin d’établir des tendances dans les effets des changements climatiques. Malgré le fait que le débit journalier moyen et le débit annuel moyen demeurent près de leur valeur actuelle dans les trois scénarios de MCG, des changements importants dans les taux de transport de sédiments simulés pour chaque tributaire sont observés. Ceci est dû à l’impact important de fortes crues plus fréquentes dans un climat futur de même qu’à l’arrivée plus hâtive de la crue printanière, ce qui résulte en une variabilité accrue dans les taux de transport en charge de fond. Certaines complications avec l’approche de modélisation en 1D pour représenter la géométrie complexe des rivières Saint-Maurice et Saint-François suggèrent qu’une approche bi-dimensionnelle (2D) devrait être sérieusement considérée afin de simuler de façon plus exacte la répartition des débits aux bifurcations autour des îles. La rivière Saint-François est utilisée comme étude de cas pour le modèle 2D H2D2, qui performe bien d’un point de vue hydraulique, mais qui requiert des ajustements pour être en mesure de pleinement simuler les ajustements morphologiques des cours d’eau.
Resumo:
L’évaluation de la douleur chez les oiseaux est difficile, puisque la plupart se comportent comme des proies et ont tendance à masquer tout signe extérieur de douleur. Les doses et les drogues utilisées pour traiter la douleur des oiseaux sont la plupart du temps basées sur une extrapolation d’autres espèces, ainsi que sur l’expérience clinique. Peu d’études de pharmacocinétique, d’efficacité et de toxicité sont disponibles dans la littérature. La plupart des études rapportées utilisent des stimuli nociceptifs éloignés des douleurs cliniques, comme les stimuli électriques ou thermiques, qui sont difficilement extrapolables à des situations rencontrées en pratique. L’objectif de notre projet était d’évaluer les effets analgésiques de deux doses de meloxicam chez le pigeon à l’aide d‘un modèle de fracture du fémur. La douleur post-opératoire a été évaluée pendant les quatre premiers jours suivant la chirurgie par trois méthodes : le suivi du poids porté sur la patte opérée comparativement à l’autre patte, quatre différentes échelles descriptives de douleur et la réalisation d’éthogrammes à l’aide d’enregistrements vidéo. L’administration de 0,5 mg/kg PO q12h de meloxicam n’a pas permis de réduire significativement les indicateurs de douleur mesurés comparativement à un groupe témoin recevant de la saline. Les pigeons ayant reçu 2 mg/kg PO q12h de meloxicam ont montré une réduction significative des indicateurs de douleur mesurés par les différentes méthodes. Nos résultats suggèrent que l’administration de 2 mg/kg PO q12h aux pigeons suite à une chirurgie orthopédique procure une analgésie supérieure aux doses actuellement recommandées dans la littérature.
Resumo:
Les études des effets de l’activité physique sur la cognition humaine et animale ne permettent pas de clarifier si ces effets sont spécifiques au type d’exercice pratiqué et si les gains cognitifs pour un cerveau en développement sont globaux ou exclusifs à certaines fonctions cognitives. Considérant le circuit nerveux entre le cervelet et le cortex préfrontal dorsolatéral, nous croyons qu’un entraînement neuromoteur stimulant les fonctions motrices du cervelet améliorera les fonctions exécutives associées au cortex préfrontal. Comme l’entraînement aérobie a affecté positivement différentes fonctions cognitives dans des études précédentes, nous croyons que ce type d’exercice améliorera les fonctions exécutives et la mémoire à long-terme. Trois classes de sixième année (âge moyen = 11,4 ans) ont été aléatoirement assignées aux groupes neuromoteur (n=22), aérobie (n=19) et contrôle (n=15). Nous nous sommes assurés que l’entraînement neuromoteur ne stimulait aucunement la capacité aérobie et que l’entraînement aérobie n’améliorait aucune habileté motrice. Les entraînements pour les deux groupes expérimentaux consistaient en 30 minutes d’activités par jour d’école pendant les heures de classe, pour 10 semaines ; le groupe contrôle suivait le programme scolaire régulier. Des tests moteurs et cognitifs ont été administrés avant et après l’intervention. Une série d’ANOVAs a révélé que l’entraînement neuromoteur avait amélioré la fluence verbale avec un effet marginal sur la génération de verbe, deux fonctions exécutives associées au circuit fronto-cérébelleux, et que l’entraînement aérobie avait mené à une amélioration distincte de la fluence verbale. Ainsi, nos résultats démontrent que les améliorations des fonctions exécutives sont spécifiques à chaque entraînement pratiqué.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.