550 resultados para Modèle bayésien gaussien naïf
Resumo:
Le circovirus porcin de type 2 (PCV2) est un pathogène majeur pour l’industrie porcine et est associé à une longue liste de maladies associées au circovirus porcin (MACVP). Les premières tentatives pour reproduire ces maladies ont montré que le virus doit être combiné à d’autres agents pathogènes du porc ou à différents stimulants du système immunitaire. De ces agents, le virus du syndrome reproducteur et respiratoire porcin (VSRRP) est celui qui est le plus souvent co-isolé avec le PCV dans les fermes. Une grande partie des efforts faits pour étudier les interactions entre ces deux virus ont été menés in vivo. Les interactions in vitro ont jusqu’à maintenant été peu étudiées du fait qu’il n’existe pas de modèle cellulaire permettant la réplication efficace des deux virus. L’objectif de ce projet était donc de développer un modèle cellulaire propice à la réplication des deux virus et d’étudier leur interaction en co-infection. Une lignée cellulaire provenant de la trachée d’un porcelet nouveau-né (NPTr), permissive au PCV, a été génétiquement modifiée pour exprimer la protéine CD163, un récepteur majeur du VSRRP. Ce projet a montré que cette nouvelle lignée cellulaire (NPTr-CD163) est permissive au VSRRP ainsi qu’à plusieurs génotypes de PCV (PCV1, PCV2a, PCV2b et PCV1/2a). De plus, les résultats obtenus lors d’infections mixtes suggèrent que la réplication du VSRRP et du PCV conditionne de façon génotype-dépendante celle du PCV puisque la réplication du PCV1 est inhibée en présence de VSRRP, alors que celle du PCV2b est significativement augmentée dans les mêmes conditions. Ni la mortalité cellulaire, ni la réponse cellulaire en cytokines n’a permis d’expliquer ces résultats. La modulation de la réplication du PCV par le VSRRP serait donc liée à un mécanisme spécifique qui demeure inconnu. De plus, cet effet varierait en fonction du génotype de PCV.
Resumo:
Les propriétés antioxydantes du resvératrol sont d’un grand intérêt pour contrer la dysfonction endothéliale où la contribution du stress oxydant est majeure. Cette dysfonction endothéliale est d’ailleurs bien caractérisée en hypertrophie ventriculaire gauche (HVG). Cette étude vise à explorer les effets thérapeutiques du resvératrol sur la dysfonction endothéliale des artères coronaires épicardiques associée à l’HVG. L’HVG est induite suite à un cerclage aortique (CA) sur des porcelets de 2 mois. Le resvératrol est ensuite administré à 20 mg/kg/jour per os aux animaux répertoriés dans différents groupes. Le groupe 1 comprend les animaux contrôles sans CA alors que le groupe 2 représente les porcelets ayant subit le CA sans traitement. Le groupe 3 comprend les animaux traités pendant les 60 jours après la chirurgie alors que le groupe 4 est traité seulement à partir du 30ème jour jusqu’au jour 60. Des analyses échocardiographiques et histologiques ont été effectuées afin de déterminer le degré d’hypertrophie et l’impact du resvératrol sur la progression de l’HVG alors que la réactivité vasculaire a été évaluée par des expériences de chambres d’organes. La dysfonction endothéliale a été étudiée in vitro par quantification des métabolites nitriques et des niveaux de GMPc tandis que le stress oxydant est décrit par les niveaux d’angiotensine II (Ang II) et de protéines carbonylées. Les courbes dose-réponse à la sérotonine du groupe 3 traité pendant les 60 jours au resvératrol ont démontré une relaxation vasculaire significativement améliorée comparé au groupe 2 non-traité (p<0,05). Le pourcentage de changement du rapport de la masse du ventricule gauche sur la masse corporelle (LVmass/BW) a démontré une inhibition du développement de l’HVG dans le groupe 3 alors que le groupe 4 n’a pas eu d’effets bénéfiques des 30 jours de traitement au resvératrol. La biodisponibilité du NO représentée par la mesure de ses métabolites en circulation (398,71±21,74 ; 151,04±14,95 ; 241,86±15,53 ; 208,17±26,52 uM pour les groupes 1, 2, 3 et 4 respectivement, p<0,001 pour groupe 1 et 3 vs groupe 2) et par le niveau de GMPc a été augmentée avec l’administration du polyphénol (2,54±0,63 ; 0,67±0,45 ; 1,71±0,25 ; 1,98±0,29 pmol/ml pour les groupes 1, 2, 3 et 4 respectivement, p<0,05 pour groupe 1, 3 et 4 vs groupe 2). Le rôle antioxydant du resvératrol a été confirmé avec une réduction des niveaux de protéines carbonylées chez le groupe 3 comparé aux valeurs du groupe 2 (0,14±0,05 vs 0,33±0,03 nmol/mg respectivement) sans diminution des niveaux d’Ang II. Le resvératrol a aussi réduit l’hypertrophie des cardiomyocytes et la fibrose interstitielle. Ainsi, le resvératrol peut effectivement réduire la dysfonction endothéliale des artères coronaires épicardiques et limiter l’occurrence de remodelage myocardique associé à l’HVG, principalement à travers l’activation de la signalisation dépendante du NO.
Resumo:
La leucémie myéloïde aigüe (LMA) est la forme de leucémie la plus fréquente chez l’adulte au Canada. Bien que de nombreux réarrangements chromosomiques récurrents aient été identifiés chez les patients LMA, près de la moitié des cas présentent un caryotype normal (LMA-CN). L’étude de la LMA-CN in vitro est rendue difficile par le fait que la survie des cellules primaires de patients est défectueuse sur le long terme et que les lignées cellulaires leucémiques ont un caryotype hautement anormal. En 2009, Munker et son équipe ont établi une nouvelle lignée cellulaire, CG-SH, ayant la particularité d’avoir un caryotype normal. L’objectif principal de ce projet d’étude est de caractériser plus en détail ce nouveau modèle d’étude. Nous avons identifié l’ensemble des variants génétiques présents dans CG-SH grâce au séquençage du génome entier. Les variants susceptibles de participer à la leucémogénèse ont été isolés, tels que des insertions détectées dans EZH2 et GATA2, et de nombreux variants faux-sens détectés dans des gènes pertinents pour la LMA. Nous avons montré que les cellules CG-SH sont sensibles à l’effet prolifératif d’une combinaison de cytokines, qui agissent sur le comportement des cellules en modifiant l’expression des gènes associés à la régulation de la prolifération, de l’apoptose et de la différentiation. De plus, les cytokines diminuent le taux de nécrose des cellules en culture sur le court terme. La présente étude a permis d’approfondir notre connaissance sur les caractéristiques moléculaires de la lignée cellulaire CG-SH, un nouveau modèle d’étude in vitro de la LMA-CN.
Resumo:
Les processus Markoviens continus en temps sont largement utilisés pour tenter d’expliquer l’évolution des séquences protéiques et nucléotidiques le long des phylogénies. Des modèles probabilistes reposant sur de telles hypothèses sont conçus pour satisfaire la non-homogénéité spatiale des contraintes fonctionnelles et environnementales agissant sur celles-ci. Récemment, des modèles Markov-modulés ont été introduits pour décrire les changements temporels dans les taux d’évolution site-spécifiques (hétérotachie). Des études ont d’autre part démontré que non seulement la force mais également la nature de la contrainte sélective agissant sur un site peut varier à travers le temps. Ici nous proposons de prendre en charge cette réalité évolutive avec un modèle Markov-modulé pour les protéines sous lequel les sites sont autorisés à modifier leurs préférences en acides aminés au cours du temps. L’estimation a posteriori des différents paramètres modulants du noyau stochastique avec les méthodes de Monte Carlo est un défi de taille que nous avons su relever partiellement grâce à la programmation parallèle. Des réglages computationnels sont par ailleurs envisagés pour accélérer la convergence vers l’optimum global de ce paysage multidimensionnel relativement complexe. Qualitativement, notre modèle semble être capable de saisir des signaux d’hétérogénéité temporelle à partir d’un jeu de données dont l’histoire évolutive est reconnue pour être riche en changements de régimes substitutionnels. Des tests de performance suggèrent de plus qu’il serait mieux ajusté aux données qu’un modèle équivalent homogène en temps. Néanmoins, les histoires substitutionnelles tirées de la distribution postérieure sont bruitées et restent difficilement interprétables du point de vue biologique.
Resumo:
Les modèles animaux d’arthrose sont utilisés sur le rat depuis des décennies pour évaluer l’efficacité analgésique de nombreux composés. Cependant, la méthodologie utilisée, en particulier les protocoles d’évaluation de la douleur, est très différente d’une étude à une autre, rendant difficile la comparaison entre chaque projet. Afin d'améliorer le transfert des résultats précliniques vers la recherche clinique, ce projet propose d'établir un protocole d'évaluation de la douleur fiable et pertinent, et de le valider à l’aide du modèle d’arthrose expérimental le plus populaire, soit l’injection intra-articulaire de mono-iodoacétate de sodium (MIA). La répétabilité et la fiabilité inter-évaluateur de diverses méthodes d’évaluation de la douleur ont été évaluées, et le protocole d'acclimatation le plus fiable a été déterminé. Ensuite, les méthodes les plus intéressantes ont été testées pour leur sensibilité à détecter les altérations douloureuses induites par l’injection de MIA, ainsi que leur réponse au traitement analgésique, soit une injection intra-articulaire de lidocaïne. Une période d'acclimatation adéquate associée à un protocole d'évaluation combinant des mesures réflexes, des comportements spontanés ainsi que des tests opérants ont témoigné avec succès des changements douloureux liés à l'injection de MIA. Le test opérant fut la méthode la plus sensible pour détecter l'effet analgésique de la lidocaïne. Cette étude a permis d’établir le protocole d’acclimatation et les méthodes de l’évaluation de la douleur les plus fiables et sensibles. Aussi, il a démontré la pertinence du test opérant pour détecter la composante affective de la douleur chez les rongeurs.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Ce mémoire propose une réflexion sur des modèles permettant de mieux comprendre et concevoir l’expérience esthétique d’un jeu vidéo. Ces modèles traduisent différents idéaux de la place du joueur. Comme on peut le constater à travers une réflexion sur le modèle du cercle magique, jouer est souvent compris comme un acte unilatéral d’entrée en imagination dans un monde étranger au monde actuel – toute sortie marquant la pénalité ou la fin du jeu. De ce point de vue, le designer aurait donc pour rôle de placer et de maintenir le joueur dans le monde virtuel représenté pour qu’il s’y sente immergé et présent. Cela dit, comme en témoignent les critiques qui s’élèvent contre le modèle du cercle magique, d’autres stratégies de mise en place du joueur sont à distinguer et à définir pour faciliter l’analyse et la conception des jeux vidéo. Devant ce modèle, jugé limitatif, ce que nous proposons ici est de recourir à quelques outils méthodologiques et typologiques de l’esthétique de la réception en histoire de l’art pour bâtir un modèle plus englobant, celui de la place du joueur, dont nous testons la validité par l’analyse du jeu vidéo God of War III (2010).
Différents procédés statistiques pour détecter la non-stationnarité dans les séries de précipitation
Resumo:
Ce mémoire a pour objectif de déterminer si les précipitations convectives estivales simulées par le modèle régional canadien du climat (MRCC) sont stationnaires ou non à travers le temps. Pour répondre à cette question, nous proposons une méthodologie statistique de type fréquentiste et une de type bayésien. Pour l'approche fréquentiste, nous avons utilisé le contrôle de qualité standard ainsi que le CUSUM afin de déterminer si la moyenne a augmenté à travers les années. Pour l'approche bayésienne, nous avons comparé la distribution a posteriori des précipitations dans le temps. Pour ce faire, nous avons modélisé la densité \emph{a posteriori} d'une période donnée et nous l'avons comparée à la densité a posteriori d'une autre période plus éloignée dans le temps. Pour faire la comparaison, nous avons utilisé une statistique basée sur la distance d'Hellinger, la J-divergence ainsi que la norme L2. Au cours de ce mémoire, nous avons utilisé l'ARL (longueur moyenne de la séquence) pour calibrer et pour comparer chacun de nos outils. Une grande partie de ce mémoire sera donc dédiée à l'étude de l'ARL. Une fois nos outils bien calibrés, nous avons utilisé les simulations pour les comparer. Finalement, nous avons analysé les données du MRCC pour déterminer si elles sont stationnaires ou non.
Resumo:
Atout pour la mise en œuvre, atout pour l’évaluation et de manière plus évidente atout pour la motivation, le jeu sérieux se veut une solution pédagogique pertinente dans un contexte d’éducation formel ou informel. Au niveau de la recherche, on peut se questionner quant à la valeur pédagogique d’une telle approche ainsi que sur ses principaux atouts. Dans notre projet, nous nous sommes intéressés plus particulièrement à l’apport du scénario pédagogique dans un jeu sérieux. En utilisant le jeu vidéo Mecanika, développé dans le cadre d’une maîtrise en didactique à l’UQAM et basé sur un questionnaire reconnu permettant d’identifier les conceptions des élèves en mécanique, le Force Concept Inventory (HESTENES et al., 1992), nous tenterons d’extraire l'élément principal du scénario pédagogique afin d’en évaluer l’effet sur l’apprentissage. Notre méthodologie a permis de comparer les performances d’élèves de cinquième secondaire ayant utilisé deux versions différentes du jeu. Dans un premier temps, les résultats obtenus confirment ceux observés par Boucher Genesse qui étaient déjà supérieurs à ceux habituellement cités dans les recherches impliquant le FCI. Nous avons aussi observé qu’il semble exister une relation significative entre le plaisir à jouer et l’apprentissage, ainsi qu’une relation significative entre le nombre d’interactions et la version du jeu sur le gain, ce qui confirme que le jeu produit un effet qui s’ajoute à celui du professeur. La présence d’étoiles dans le jeu original a suscité plus d’actions des élèves que la version orientée simulation qui en est démunie, ce qui semble indiquer que l’utilisation d’un jeu sérieux favorise l’implication des élèves. Cependant, l’absence d’effet significatif associé à la suppression des étoiles indique que la scénarisation n’est peut-être pas la principale cause des apprentissages observés dans le jeu Mecanika. Le choix des autres éléments présents dans chaque tableau doit aussi être considéré. Des recherches futures seraient nécessaires pour mieux comprendre ce qui favorise les apprentissages
Resumo:
Si l’approche par compétences au Canada et aux États-Unis est particulièrement valorisée pour orienter la pratique des professionnels de la santé (PDS) – et en bioéthique clinique –, les travaux permettant de mieux comprendre les fondements psychologiques, ontologiques et philosophiques de ces compétences sont peu présents dans la littérature en bioéthique. Les principaux outils actuellement disponibles se divisent généralement en quatre principales catégories : 1) les documents officiels (codes de déontologie, règlements institutionnels, etc.); 2) les principales théories éthiques (éthique de la discussion, éthique de la vertu, principisme, etc.); 3) les ouvrages de référence scientifiques; 4) les outils de prise de décision éthique. Ces documents sont des incontournables pour les bioéthiciens et les PDS, mais leur disparité, voire leur contenu parfois contradictoire, jumelée à une compréhension limitée de l’éthique, est souvent source de confusion dans les processus décisionnels et peut être la cause de comportements ne répondant pas aux standards éthiques des pratiques professionnelles. Notre recherche constitue une réflexion qui s’inscrit en amont de ces outils dont le caractère pragmatique a le désavantage de simplifier la réflexion théorique au profit de données plus concrètes. Nos travaux visent à développer les bases d’un modèle flexible et inclusif – le modèle de la déontologie réflexive (MDR) – permettant de : 1) poser les principaux repères philosophiques, sociaux et déontologiques des problématiques éthiques rencontrées en pratique; 2) saisir les principales tensions éthiques inhérentes à cette complexité; 3) mieux comprendre, dans une perspective psychologique et développementale, les exigences personnelles et professionnelles qu’impose le statut de professionnel de la santé dans le contexte actuel des soins de santé. Entreprise théorique, ce projet consiste principalement à mettre en relation dynamique un ensemble de dimensions (légale, éthique, clinique, sociale, psychologique) à l’oeuvre dans la rencontre du bioéthicien et du PDS avec la complexité des situations éthiques, en s’inspirant du concept de sensibilité éthique de la « petite éthique » de Paul Ricoeur (1990), du modèle des quatre composantes de Rest (1994) et de la théorie du soi et des modes identitaires d’Augusto Blasi (1993). Ce processus implique trois étapes successives : 1) une mise en ii perspective de la posture épistémologique particulière du bioéthicien et du PDS à la lumière de la « petite éthique » de Ricoeur; 2) une revue de la littérature interdisciplinaire sur le concept de sensibilité éthique afin d’en proposer une définition et de le mettre en perspective avec d’autres compétences éthiques; 3) le développement d’un cadre de référence en matière d’identité éthique professionnelle (professional ethics identity tendencies, PEIT), inspiré de la théorie du soi et des modes identitaires de Blasi. Ces PEIT proposent un repère normatif aux exigences liées à la construction de l'identité en contexte de pratique des PDS et suggèrent des pistes de réflexion quant à la formation et à la recherche en éthique professionnelle. Cette recherche souhaite établir des fondements théoriques pour le développement ultérieur du modèle de la déontologie réflexive (MDR).
Resumo:
L’objectif de ce mémoire est d’identifier la nature des changements des politiques sociales adoptés entre 1988 et 1998 en Suède et ainsi de mieux comprendre l’état actuel du modèle suédois, caractérisé dans la littérature par l’institutionnalisation des valeurs d’égalité sociale et d’universalisme. À l’aide d’une grille d’analyse inférée à partir de la typologie des changements de politiques publiques de Peter Hall, l’auteure pose l’hypothèse selon laquelle un changement de paradigme est survenu dans les secteurs de l’éducation obligatoire et de la santé. À l’issue de cette étude, il est démontré que, si le paradigme a effectivement été contesté au cours de la période de réforme étudiée, il est toujours en vigueur à la fin des années 1990. Toutefois, l’effet cumulé des changements d’instruments l’ont miné peu à peu durant les décennies suivantes. Les conséquences de ces changements, devenues des « anomalies », menacent aujourd’hui l’existence du modèle suédois.
Resumo:
Depuis quelques décennies, la consommation de cannabis et son usage thérapeutique sont le sujet de nombreux débats. Le cannabis est la drogue illicite la plus consommée au monde et cette consommation se trouve dix fois plus élevée chez les patients atteints de schizophrénie que dans la population générale. L’hypothèse d’une automédication initialement proposée afin d’expliquer la consommation élevée de cannabis chez les patients atteints de schizophrénie est maintenant remise en question. En effet, les rapports indiquant une aggravation des symptômes plutôt qu’une amélioration suite à une consommation à long terme sont de plus en plus nombreux. Sachant que le cannabis peut induire des effets soit plaisants soit aversifs, la question se pose à savoir si une prédominance de la valence motivationnelle positive ou une diminution de la valence négative du cannabis peut expliquer la consommation élevée parmi les individus ayant un diagnostic de schizophrénie? Bien qu’un grand nombre de recherches pré-cliniques aient été menées chez l’animal normal pour évaluer l’effet motivationnel du Δ9-tétrahydrocannabinol (THC) et autres cannabinoïdes synthétiques, aucune n’a abordé cette problématique dans un modèle animal de la schizophrénie. Cette lacune nous a donc amené à étudier la valence motivationnelle du THC et de l’agoniste cannabinoïde WIN55,212-2 (WIN) dans un modèle animal de la schizophrénie: la lésion néonatale de l’hippocampe ventral (NVHL). Dans le premier article, nous présentons les résultats de quatre expériences. Une première avait pour objectif de déterminer si la procédure expérimentale que nous avons utilisée permettait de reproduire des signes distinctifs du modèle animal de la schizophrénie. Par la suite, nous avons évalué i) l’effet d’une dose de WIN sur l’activité locomotrice spontanée et ii) la valence motivationnelle du THC (0.5 mg/kg, i.p) et du WIN (1 mg/kg, i.p) chez les rats adolescents (jour post-natal 28-40, PD28-40) et adultes (PD56) au moyen du paradigme de préférence de place conditionnée (PPC). Tel qu’attendu, la réponse locomotrice à l’amphétamine (0.75 et 1.5 mg/kg) chez les rats NVHL adultes était supérieure à celle des rats contrôles (test distinctif du modèle). Le THC a induit une tendance aversive chez les rats contrôles adultes. Enfin, le WIN a stimulé l’activité locomotrice et induit une aversion significative chez les rats adultes NVHL. Dans un deuxième article, nous avons évalué la valence motivationnelle du THC (0.5 mg/kg), du WIN (1 et 3 mg/kg) et l’effet de l’amphétamine au moyen du paradigme d’autostimulation électrique intracérébrale (ASI). Les résultats montrent que : i) l’effet amplificateur de l’amphétamine sur l’ASI était de plus courte durée chez les rats NVHL; ii) le THC produit une légère atténuation de la récompense chez les rats contrôles tandis que le WIN a produit une atténuation plus prononcée de la récompense chez les rats NVHL, un effet qui a été bloqué par l’antagoniste aux récepteurs CB1, le AM251 (3 mg/kg). Pour la première fois les résultats suggèrent une altération du système endocannabinoïde dans un modèle animal de la schizophrénie. Ils indiquent qu’une exposition aigüe conduit à une prédominance de la valence négative. Bien qu’en apparente contradiction avec les études cliniques, ces résultats soulignent l’importance du contexte socio-environnemental pour expliquer les effets du cannabis chez les patients. De plus ils encouragent les futures études à évaluer cette valence sur un modèle d’exposition chronique.
Resumo:
Essai critique de stage
Resumo:
« Derniers instants », première partie de ce mémoire, est un roman dont la protagoniste, une octogénaire issue d’une famille aux valeurs traditionnelles, refuse de se conformer aux idéologies d’une société patriarcale, comme sa mère, sa grand-mère et toutes les femmes qui les ont précédées l’ont fait avant elle. C’est une démarche créative inspirée par la restitution de la part des femmes dans l’histoire, depuis l’avènement des études féministes. Un regard a posteriori, une relecture de l’expérience féminine. Dans la deuxième partie, « Modèle familial et filiations dans Fugueuses de Suzanne Jacob », je m’intéresse à la fonction que Jacob attribue à l’écrivain. En effet, pour l’auteure, chaque individu est un lecteur du monde. Le rapport dialogique qu’elle établit entre le texte littéraire et les « fictions dominantes » rend compte de sa démarche créative, c’est-à-dire l’écriture comme l’aboutissement d’une lecture singulière des évidences, de l’entendu, du ce-qui-va-de-soi.
Resumo:
Dans ce travail, j’étudierai principalement un modèle abélien de Higgs en 2+1 dimensions, dans lequel un champ scalaire interagit avec un champ de jauge. Des défauts topologiques, nommés vortex, sont créés lorsque le potentiel possède un minimum brisant spontanément la symétrie U(1). En 3+1 dimensions, ces vortex deviennent des défauts à une dimension. Ils ap- paraissent par exemple en matière condensée dans les supraconducteurs de type II comme des lignes de flux magnétique. J’analyserai comment l’énergie des solutions statiques dépend des paramètres du modèle et en particulier du nombre d’enroulement du vortex. Pour le choix habituel de potentiel (un poly- nôme quartique dit « BPS »), la relation entre les masses des deux champs mène à deux types de comportements : type I si la masse du champ de jauge est plus grande que celle du champ sca- laire et type II inversement. Selon le cas, la dépendance de l’énergie au nombre d’enroulement, n, indiquera si les vortex auront tendance à s’attirer ou à se repousser, respectivement. Lorsque le flux emprisonné est grand, les vortex présentent un profil où la paroi est mince, permettant certaines simplifications dans l’analyse. Le potentiel, un polynôme d’ordre six (« non-BPS »), est choisi tel que le centre du vortex se trouve dans le vrai vide (minimum absolu du potentiel) alors qu’à l’infini le champ scalaire se retrouve dans le faux vide (minimum relatif du potentiel). Le taux de désintégration a déjà été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste d’abord à établir l’existence de vortex classi- quement stables de façon numérique. Puis, ma contribution fut une analyse des paramètres du modèle révélant le comportement énergétique de ceux-ci en fonction du nombre d’enroulement. Ce comportement s’avèrera être différent du cas « BPS » : le ratio des masses ne réussit pas à décrire le comportement observé numériquement.