35 resultados para Because I tell a joke or two
em Université de Montréal, Canada
Resumo:
La phylogénie moléculaire fournit un outil complémentaire aux études paléontologiques et géologiques en permettant la construction des relations phylogénétiques entre espèces ainsi que l’estimation du temps de leur divergence. Cependant lorsqu’un arbre phylogénétique est inféré, les chercheurs se focalisent surtout sur la topologie, c'est-à-dire l’ordre de branchement relatif des différents nœuds. Les longueurs des branches de cette phylogénie sont souvent considérées comme des sous-produits, des paramètres de nuisances apportant peu d’information. Elles constituent cependant l’information primaire pour réaliser des datations moléculaires. Or la saturation, la présence de substitutions multiples à une même position, est un artefact qui conduit à une sous-estimation systématique des longueurs de branche. Nous avons décidé d’estimer l‘influence de la saturation et son impact sur l’estimation de l’âge de divergence. Nous avons choisi d’étudier le génome mitochondrial des mammifères qui est supposé avoir un niveau élevé de saturation et qui est disponible pour de nombreuses espèces. De plus, les relations phylogénétiques des mammifères sont connues, ce qui nous a permis de fixer la topologie, contrôlant ainsi un des paramètres influant la longueur des branches. Nous avons utilisé principalement deux méthodes pour améliorer la détection des substitutions multiples : (i) l’augmentation du nombre d’espèces afin de briser les plus longues branches de l’arbre et (ii) des modèles d’évolution des séquences plus ou moins réalistes. Les résultats montrèrent que la sous-estimation des longueurs de branche était très importante (jusqu'à un facteur de 3) et que l’utilisation d'un grand nombre d’espèces est un facteur qui influence beaucoup plus la détection de substitutions multiples que l’amélioration des modèles d’évolutions de séquences. Cela suggère que même les modèles d’évolution les plus complexes disponibles actuellement, (exemple: modèle CAT+Covarion, qui prend en compte l’hétérogénéité des processus de substitution entre positions et des vitesses d’évolution au cours du temps) sont encore loin de capter toute la complexité des processus biologiques. Malgré l’importance de la sous-estimation des longueurs de branche, l’impact sur les datations est apparu être relativement faible, car la sous-estimation est plus ou moins homothétique. Cela est particulièrement vrai pour les modèles d’évolution. Cependant, comme les substitutions multiples sont le plus efficacement détectées en brisant les branches en fragments les plus courts possibles via l’ajout d’espèces, se pose le problème du biais dans l’échantillonnage taxonomique, biais dû à l‘extinction pendant l’histoire de la vie sur terre. Comme ce biais entraine une sous-estimation non-homothétique, nous considérons qu’il est indispensable d’améliorer les modèles d’évolution des séquences et proposons que le protocole élaboré dans ce travail permettra d’évaluer leur efficacité vis-à-vis de la saturation.
Resumo:
En raison de la grande résolution des photographies des échantillons, celles-ci se trouvent dans un fichier complémentaire, puisque les conditions de forme imposées ne permettaient pas l'affichage intégral de ces images au sein du mémoire.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
AIDA-I (adhesin involved in diffuse adherence) est une importante adhésine autotransporteur exprimée par certaines souches de Escherichia. coli impliquée dans la colonisation des porcelets sevrés causant la diarrhée post-sevrage et la maladie de l’œdème. Une précédente étude de notre laboratoire a identifié l’apolipoprotéine AI (ApoAI) du sérum porcin, la protéine structurale des lipoprotéines à haute densité, comme récepteur cellulaire putatif de AIDA-I. L’interaction entre ces deux protéines doit être caractérisée. Ici, nous montrons par ELISA que AIDA-I purifiée est capable d’interagir avec l’ApoAI humaine, mais également avec les apolipoprotéines B et E2. L’ApoAI est rencontrée sous deux formes, soit libre ou associée aux lipides. Nous montrons que la forme libre n’interagit pas avec les bactéries AIDA-I+ mais s’associe spécifiquement à l’ApoAI membranaire de cellules épithéliales HEp-2. Afin d’étudier le rôle de l’ApoAI dans l’adhésion des bactéries, nous avons infecté des cellules HEp-2 en présence d’anticorps dirigés contre l’ApoAI, mais l’adhésion des bactéries AIDA I+ n’a jamais été réduite. De plus, l’induction de l’expression de l’ApoAI par fénofibrate et GW7647 chez les cellules Caco 2 polarisée et Hep G2, n’a pas permis l’augmentation de l’adhésion cellulaire des E. coli exprimant AIDA-I. Notre étude suggère davantage que l’interaction entre AIDA-I et ApoAI n’intervient pas dans les mécanismes d’adhésion cellulaire.
Resumo:
Les personnes vieillissantes doivent composer au quotidien avec des douleurs chroniques. Le but de ce travail est de mieux comprendre les mécanismes sous-jacents qui contribueraient aux douleurs chroniques liées au vieillissement et par là, ouvrir un chemin vers de nouvelles perspectives thérapeutiques. Les contrôles inhibiteurs diffus nociceptifs (CIDN) ont un rôle qui n’est pas des moindres dans le contrôle de la douleur. Des études expérimentales examinant l’effet analgésique de la contre stimulation hétérotopique nociceptive (HNCS), un protocole permettant de tester l’efficacité de ces CIDN, suggèrent que le recrutement des CIDN au sein de cette population était plus faible (i.e. moins d’inhibition) comparé à une population plus jeune. En revanche, les études examinant la sensibilisation centrale induite par sommation temporelle (TS) de la douleur rapportent des résultats mitigés. De plus, une composante importante influençant l’expérience de douleur, les ressources cognitives, dont l’inhibition cognitive, se voient aussi décliner avec l’âge. Premièrement, le recrutement des CIDN a été comparé entre des participants sains, jeunes et des plus âgés avec la HNCS, et le recrutement des mécanismes de sensibilisation centrale avec la TS. La stimulation électrique du nerf sural a été choisie pour permettre de quantifier la douleur, tout en prenant une mesure indicative de la nociception spinale qu’est le réflexe nociceptif spinal (RIII). Nos sujets ont aussi participé à une tâche cognitive (le Stroop), testant l’inhibition cognitive. Deuxièmement, l’efficacité des CIDN ainsi que de l’inhibition cognitive a été testée chez les jeunes et les aînés en imagerie par résonance magnétique (IRM), afin de vérifier la relation entre ces deux mesures psychophysiques et l’épaisseur corticale des régions qui y sont impliquées ainsi que l’effet de l’âge sur celles-ci. Les résultats suggèrent un moindre recrutement des CIDN chez les plus âgés lors de l’expérimentation de la HNCS. Également, les sujets âgés présentaient des capacités d’inhibitions cognitives plus faibles que les jeunes. En plus, une corrélation entre l’inhibition cognitive et la modulation du réflexe RIII par la HNCS a été mise en évidence. Pour l’expérience de TS, les résultats étaient comparables pour les deux groupes, suggérant que les mécanismes impliqués dans la régulation de la douleur ne subiraient pas l’effet de l’âge de la même manière. Pour l’étude de l’épaisseur corticale, on y trouve une diminution globale de l’épaisseur corticale liée à l’âge, mais aussi une corrélation de l’analgésie par la HNCS avec l’inhibition cognitive et également, une relation des deux avec l’épaisseur corticale du cortex orbitofrontal (OFC) latéral gauche, suggérant la possibilité d’une existence d’un réseau neuronal au moins partiellement commun du contrôle inhibiteur descendant sensoriel et cognitif. Ce travail montre que l’effet de l’âge sur les mécanismes centraux de la régulation de la douleur est loin d’être uniforme. Également, il montre une corrélation entre la modulation endogène de la douleur et l’inhibition cognitive, ces deux processus seraient associés à une même région cérébrale. Ces résultats pourraient contribuer à identifier d’autres méthodes thérapeutiques, ouvrant ainsi une nouvelle avenue vers d’autres options dans la prise en charge des douleurs chroniques chez les personnes vieillissantes.
Resumo:
Objectifs : Analyser l’évolution de l’embonpoint chez les enfants québécois entre 4 et 8 ans et évaluer le rôle des différents facteurs de risque sur l’excès de poids persistant. Les données proviennent de l’étude longitudinale du développement des enfants du Québec (ÉLDEQ, 1998-2010). Cette enquête est réalisée par l’Institut de la statistique du Québec auprès d’une cohorte de 2120 nourrissons québécois nés en 1998, faisant l’objet d’un suivi annuel à partir de l’âge de 5 mois. Méthodes d’analyse : univariées, bivariées, modélisation semi-paramétrique, analyses de régressions logistique et log-linéaire (Poisson). Principaux résultats : i) L’excès de poids persistant chez les enfants âgés de 4 à 8 ans est un phénomène fluctuant, qui ne varie pas de façon significative selon le sexe ; ii) Le fait d’allaiter les enfants ne semble pas avoir un effet protecteur en ce qui concerne l’excès de poids ; iii) En ce qui concerne le poids à la naissance, les données dont on dispose ne nous permettent pas de tirer des conclusions ; iv) Le fait d’avoir une santé moins qu’excellente à la naissance semble augmenter le risque d’avoir un excès de poids persistant ; v)Ce qui influence surtout, c’est de toujours manger trop ou trop vite, ou le fait de vivre dans une famille avec un ou deux parents qui font de l’embonpoint ; vi) Les mères qui ont fume pendant leur grossesse présentent une probabilité plus élevée d’avoir des enfants avec un excès de poids persistant que celles qui n’ont pas fumé.
Resumo:
This work aims at studing the role of tachykinin NK-3 receptor (R) and kinin B1R in central autonomic regulation of blood pressure (BP) and to determine whether the B1R is overexpressed and functional in rat models of hypertension by measuring the effect of a B1R agonist on behavioural activity. Assumptions: (1) NK-3R located in the ventral tegmental area (VTA) modulates the mesolimbic dopaminergic system and has a tonic activity in hypertension; (2) B1R is overexpressed in the brain of hypertensive rats and has a tonic activity, which contributes to hypertension via a dopamine mechanism; (3) the inhibition of NK-3R and B1R with selective antagonists, reduces central dopaminergic hyperactivity and reverses hypertension. A model of genetic hypertension and a model of experimental hypertension were used: spontaneously hypertensive rats (SHR, 16 weeks) and Wistar-Kyoto (WKY) rats infused for 14 days with angiotensin II (Ang II) (200 ng / kg / min, subcutaneous (s.c.) with Alzet mini pump). The age-matched untreated WKY rats served as common controls. In the first study (article # 1), the cardiovascular response in SHR was evaluated following intracebroventricular (i.c.v.) and/or intra-VTA injection of an agonist (senktide) and antagonists (SB222200 and R-820) of NK-3R. These responses have also been characterized using selective dopamine antagonists DA-D1R (SCH23390), DA-D2R (raclopride) or non-selective dopamine DA-D2R (haloperidol). Also the VTA has been destroyed by ibotenic acid. The pressor response induced by senktide and the anti-hypertensive response induced by SB222200 or R-820 were more pronounced by intra-VTA. These responses were prevented by pre-treatment with raclopride and haloperidol. The lesion of the VTA has prevented the pressor response relayed by senktide (i.c.v.) and the anti-hypertensive effect of R-820 (i.c.v.). In addition, SB222200 (intra-VTA) prevented the pressor response of senktide (i.c.v.) and conversely, senktide (i.c.v.) prevented the antihypertensive effect of SB222200 (intra-VTA). The second study (article # 2) showed that the B1R antagonist (SSR240612) administered by gavage or i.c.v. reverses hypertension in both models. This anti-hypertensive effect was prevented by raclopride and haloperidol. In contrast, the two B1R antagonists (R-715 and R-954) injected s.c., which do not cross the blood-brain barrier reduced weakly blood pressure in hypertensive rats. In the third study (article # 3), the i.c.v. injection of a selective kinin B1R agonist Sar[DPhe8][des-Arg9]BK caused behavioural responses in SHR and Ang II-treated rats and had no effect in control WKY rats . The responses elicited by B1R agonist were blocked by an antagonist of NK-1 (RP67580), an antagonist of NMDA glutamate receptor (DL-AP5), an inhibitor of nitric oxide synthase (NOS) (L -NNA) as well as raclopride and SCH23390.The responses were modestly affected by the inhibitor of inducible NOS (iNOS). The B1R mRNA (measured by RT-PCR) was significantly increased in the hypothalamus, the VTA and the nucleus accumbens of hypertensive animals (SHR and treated with Ang II) compared with control rats. These neuropharmacological studies suggest that: (1) the NK-3R from the VTA is involved in the maintenance of hypertension in SHR by increasing DA transmission in the midbrain; (2) the B1R in SHR and Ang II-treated rats contributes to hypertension via a central mechanism involving DA-D2R; (3) the central B1R increases locomotor activity and nocifensive behaviours via the release of substance P (NK-1), DA and nitric oxide in both rat models of hypertension. Thus, the brain tachykinin NK-3R and kinin B1R represent potential therapeutic targets for the treatment of hypertension. The modulation of the mesolimbic/mesocortical dopaminergic pathway by these receptors suggests their involvement in other physiological functions (pleasure, motor activity, coordination of the response to stress) and pathophysiology (anxiety, depression).
Resumo:
Cette thèse décrit la synthèse, la caractérisation, les réactivités, et les propriétés physiques de complexes divalents et trivalents de Ni formés à partir de nouveaux ligands «pincer» de type POCN. Les ligands POCN de type amine sont préparés d’une façon simple et efficace via l’amination réductrice de 3-hydroxybenzaldéhyde avec NaBH4 et plusieurs amines, suivie par la phosphination de l’amino alcool résultant pour installer la fonction phosphinite (OPR2); le ligand POCN de type imine 1,3-(i-Pr)2PC6H4C(H)=N(CH2Ph) est préparé de façon similaire en faisant usage de PhCH2NH2 en l’absence de NaBH4. La réaction de ces ligands «pincer» de type POCN avec NiBr2(CH3CN)x en présence d’une base résulte en un bon rendement de la cyclométalation du lien C-H situé en ortho aux fonctions amine et phosphinite. Il fut découvert que la base est essentielle pour la propreté et le haut rendement de la formation des complexes «pincer» désirés. Nous avons préparé des complexes «pincer» plan- carrés de type POCN, (POCNRR΄)NiBr, possédant des fonctions amines secondaires et tertiaires qui démontrent des réactivités différentes selon les substituants R et R΄. Par exemple, les complexes possédant des fonctions amines tertiaires ArCH2NR2 (NR2= NMe2, NEt2, and morpholinyl) démontrent des propriétés rédox intéressantes et pourraient être convertis en leurs analogues trivalents (POCNR2)NiBr2 lorsque réagis avec Br2 ou N-bromosuccinimide (NBS). Les complexes trivalents paramagnétiques à 17 électrons adoptent une géométrie de type plan-carré déformée, les atomes de Br occupant les positions axiale et équatoriale. Les analyses «DSC» et «TGA» des ces composés ont démontré qu’ils sont thermiquement stables jusqu’à ~170 °C; tandis que la spectroscopie d’absorption en solution a démontré qu’ils se décomposent thermiquement à beaucoup plus basse température pour regénérer les complexes divalents ne possédant qu’un seul Br; l’encombrement stérique des substitutants amines accélère cette route de décomposition de façon significative. Les analogues NMe2 et N(morpholinyl) de ces espèces de NiIII sont actifs pour catalyser la réaction d’addition de Kharasch, de CX4 à des oléfines telles que le styrène, tandis qu’il fut découvert que l’analogue le moins thermiquement stable (POCNEt2)Ni est complètement inerte pour catalyser cette réaction. Les complexes (POCNRH)NiBr possédant des fonctions amines secondaires permettent l’accès à des fonctions amines substituées de façon non symétrique via leur réaction avec des halogénures d’alkyle. Un autre avantage important de ces complexes réside dans la possibilité de déprotonation pour préparer des complexes POCN de type amide. De telles tentatives pour déprotoner les fonctions NRH nous ont permis de préparer des espèces dimériques possédant des ligands amides pontants. La nature dimérique des ces complexes [P,C,N,N-(2,6-(i-Pr)2PC6H3CH2NR)Ni]2 (R= PhCH2 et Ph) fut établie par des études de diffraction des rayons-X qui ont démontré différentes géométries pour les cœurs Ni2N2 selon le substituant N : l’analogue (PhCH2)N possède une orientation syn des substitutants benzyles et un arrangement ressemblant à celui du cyclobutane du Ni et des atomes d’azote, tandis que l’analogue PhN adopte un arrangement de type diamant quasi-planaire des atomes du Ni et des atomes d’azote et une orientation anti des substituants phényles. Les espèces dimériques ne se dissocient pas en présence d’alcools, mais elles promouvoient l’alcoolyse catalytique de l’acrylonitrile. De façon intéressante, les rendements de ces réactions sont plus élevés avec les alcools possédant des fonctions O-H plus acides, avec un nombre de «turnover» catalytique pouvant atteindre 2000 dans le cas de m-cresol. Nous croyons que ces réactions d’alcoolyse procèdent par activation hétérolytique de l’alcool par l’espèce dimérique via des liaisons hydrogènes avec une ou deux des fonctions amides du dimère. Les espèces dimériques de Ni (II) s’oxydent facilement électrochimiquement et par reaction avec NBS ou Br2. De façon surprenante, l’oxydation chimique mène à l’isolation de nouveaux produits monomériques dans lesquels le centre métallique et le ligand sont oxydés. Le mécanisme d’oxydation fut aussi investigué par RMN, «UV-vis-NIR», «DFT» et spectroélectrochimie.
Resumo:
La maladie cœliaque ou sprue cœliaque est une intolérance au gluten. Il s’agit d’une maladie inflammatoire de l’intestin liée à l’ingestion de gluten chez des personnes génétiquement susceptibles. Ce désordre présente une forte prévalence puisqu’il touche 1 % de la population mondiale. En l’état actuel des choses, il n’existe aucun outil pharmacologique pour traiter ou pallier à cette maladie. Cependant, grâce aux avancées dans la compréhension de sa pathogenèse, de nouvelles cibles thérapeutiques ont été identifiées. À l’heure actuelle, le seul traitement efficace consiste à suspendre la consommation de l’agent pathogène, à savoir le gluten. Le gluten est un ensemble de protéines de stockage des céréales contenu dans le blé, l’orge et le seigle. Le gluten du blé se subdivise en gluténines et gliadines. Ce sont ces dernières qui semblent les plus impliquées dans la maladie cœliaque. Les gliadines et ses protéines apparentées (i.e. sécalines et hordéines, respectivement dans le seigle et l’orge) sont riches en prolines et en glutamines, les rendant résistantes à la dégradation par les enzymes digestives et celles de la bordure en brosse. Les peptides résultant de cette digestion incomplète peuvent induire des réponses immunitaires acquises et innées. L’objectif principal de cette thèse était de tester un nouveau traitement d’appoint de la maladie cœliaque utile lors de voyages ou d’évènements ponctuels. Dans les années 80, une observation italienne montra l’inhibition de certains effets induits par des gliadines digérées sur des cultures cellulaires grâce à la co-incubation en présence de mannane: un polyoside naturel composé de mannoses. Malheureusement, ce traitement n’était pas applicable in vivo à cause de la dégradation par les enzymes du tractus gastro-intestinales du polymère, de par sa nature osidique. Les polymères de synthèse, grâce à la diversité et au contrôle de leurs propriétés physico-chimiques, se révèlent être une alternative attrayante à ce polymère naturel. L’objectif de cette recherche était d’obtenir un polymère liant la gliadine, capable d’interférer dans la genèse de la maladie au niveau du tube digestif, afin d’abolir les effets délétères induits par la protéine. Tout d’abord, des copolymères de type poly (hydroxyéthylméthacrylate)-co-(styrène sulfonate) (P(HEMA-co-SS)) ont été synthétisés par polymérisation radicalaire contrôlée par transfert d’atome (ATRP). Une petite bibliothèque de polymères a été préparée en faisant varier la masse molaire, ainsi que les proportions de chacun des monomères. Ces polymères ont ensuite été testés quant à leur capacité de complexer la gliadine aux pH stomacal et intestinal et les meilleurs candidats ont été retenus pour des essais cellulaires. Les travaux ont permis de montrer que le copolymère P(HEMA-co-SS) (45:55 mol%, 40 kDa) permettait une séquestration sélective de la gliadine et qu’il abolissait les effets induits par la gliadine sur différents types cellulaires. De plus, ce composé interférait avec la digestion de la gliadine, suggérant une diminution de peptides immunogènes impliqués dans la maladie. Ce candidat a été testé in vivo, sur un modèle murin sensible au gluten, quant à son efficacité vis-à-vis de la gliadine pure et d’un mélange contenant du gluten avec d’autres composants alimentaires. Le P(HEMA-co-SS) a permis de diminuer les effets sur les paramètres de perméabilité et d’inflammation, ainsi que de moduler la réponse immunitaire engendrée par l’administration de gliadine et celle du gluten. Des études de toxicité et de biodistribution en administration aigüe et chronique ont été réalisées afin de démontrer que ce dernier était bien toléré et peu absorbé suite à son administration par la voie orale. Enfin des études sur des échantillons de tissus de patients souffrants de maladie cœliaque ont montré un bénéfice therapeutique du polymère. L’ensemble des travaux présentés dans cette thèse a permis de mettre en évidence le potentiel thérapeutique du P(HEMA-co-SS) pour prévenir les désordres reliés à l’ingestion de gluten, indiquant que ce type de polymère pourrait être exploité dans un avenir proche.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
L’industrie publicitaire est un travail quotidien de collaboration entre deux « hémisphères » distincts : l’un de nature commercial et l’autre de nature créatif. Des individus qui favorisent des aspects logiques et rationnels se doivent de collaborer avec des individus qui favorisent des aspects intuitifs et artistiques, ce qui suscite des tensions. Cette mise en relation s’opère au travers d’un processus, que nous nommerons processus de design visuel communicationnel car il permet de relier la communication au design, approche que nous adoptons dans ce mémoire. L’industrie publicitaire s’est dotée d’outils permettant de faciliter le processus de design visuel communicationnel, dont le brief créatif. Notre recherche propose d’observer la manière dont les « commerciaux » et les « créatifs » perçoivent leur travail quotidien en agence et comment le brief créatif est réquisitionné. Nous adoptons une posture interprétative pour tenir compte de la complexité du phénomène et nous mobilisons une série d’entrevues pour répondre à nos questions de recherche. Nos questions de recherche sont les suivantes : de quelle manière les « commerciaux » et les « créatifs » négocient-ils les tensions lors du processus de design visuel communicationnel? Quels rôles le brief créatif occupe-t-il au sein de ce processus? Les résultats nous renseignent sur les transformations et les innovations qui émergent des tensions entre les « commerciaux » et les « créatifs » et sur l’importance que revêtent les caractéristiques communicationnelles du brief créatif dans le cadre du processus de design visuel communicationnel.
Resumo:
Doctorat réalisé en cotutelle avec l’Université Paris I- Panthéon Sorbonne.
Resumo:
Cette thése relie trois articles sur l'économie politique. Ces articles analysent à la fois théoriquement et empiriquement si, et dans quelle mesure, trois phénomènes politiques différents (les partis politiques, les guerres civiles et les menaces externes), et leur interaction, influent sur les résultats économiques. Le premier chapitre étudie l'impact de la présence au pouvoir des politiciens de nouveaux partis politiques sur la taille du gouvernement. Le chapitre se concentre sur les municipalités colombiennes, où les nouveaux partis politiques ont été nombreux et fructueux au cours des dernières années. Les estimations par régressions sur discontinuité montrent que les dépenses publiques et les recettes fiscales sont significativement plus élevées dans les municipalités gouvernées par un maire d'un nouveau parti politique. En utilisant des informations sur la politique locale et des caractéristiques des nouveaux partis, je soutiens que ce résultat peut être expliqué par le fait qu'il y a moins d'information sur les politiciens de nouveaux partis que les politiciens des partis traditionnels. Le deuxième chapitre développe une nouvelle explication de l'impact des guerres civiles et des conflits interétatiques sur le state-building qui repose sur l'idée que les protagonistes de ces deux types de conflits peuvent avoir un lien (ethnique ou idéologique). Un premier résultat montre que la force de ce lien détermine si les conflits contre des adversaires internes (i.e. guerres civiles) ou des ennemis externes (i.e. conflits interétatiques) sont complémentaires ou se substituent, conduisant à plus ou moins d'investissement en capacité fiscale. La théorie prédit également un rôle non trivial de la stabilité politique dans la relation entre les deux types de conflits et la capacité fiscale: un deuxième résultat montre que, bien que la stabilité politique se traduit par moins de capacité fiscale, plus de stabilité n'implique pas plus de state-building. Leur équivalence dépend du niveau de cohésion des institutions. Un nouveau mécanisme par lequel plus de stabilité politique peut impliquer moins de state-building est proposé. En outre, il est démontré que des corrélations dans les données cross-country sont compatibles avec la théorie. Le troisième chapitre examine la relation entre la probabilité d'occurrence d'un conflit intérieur violent et le risque qu'un tel conflit "s'externalise" (c'est à dire se propage dans un autre pays en devenant un conflit interétatique). Je considère une situation dans laquelle un conflit interne entre un gouvernement et un groupe rebelle peut s'externaliser. Je montre que le risque d'externalisation augmente la probabilité d'un accord de paix, mais seulement si le gouvernement est suffisamment puissant par rapport aux rebelles, et si le risque d'externalisation est suffisamment élevé. Je montre comment ce modèle aide à comprendre les récents pourparlers de paix entre le gouvernement colombien et le groupe le plus puissant des rebelles dans le pays, les FARC.
Resumo:
Le Jeu, un phénomène difficile à définir, se manifeste en littérature de différentes manières. Le présent travail en considère deux : l’écriture à contrainte, telle que la pratique l’Oulipo, et l’écriture de l’imaginaire, en particulier les romans de Fantasy française. La première partie de cette étude présente donc, sous forme d’essai, les origines et les visées des deux groupes d’écrivains, mettant en lumière les similitudes pouvant être établies entre eux malgré leurs apparentes différences. Tandis que l’Oulipo cherche des contraintes capables de générer un nombre infini de textes et explore la langue par ce moyen, la Fantasy se veut créatrice de mondes imaginaires en puisant généralement à la source de Tolkien et des jeux de rôle. Il en résulte que le jeu, dans les deux cas, se révèle un puissant moteur de création, que le récit appelle un lecteur-explorateur et qu’il crée une infinité de mondes possibles. Malgré tout, des divergences demeurent quant à leurs critiques, leurs rapports avec le jeu et les domaines extralittéraires, et leurs visées. Considérant ce fait, je propose de combiner les deux styles d’écriture en me servant du cycle des Hortense de Jacques Roubaud (structuré au moyen de la sextine) et des Chroniques des Crépusculaires de Mathieu Gaborit (figure de proue en fantasy « pure »). Ce projet a pour but de combler le fossé restant encore entre les deux groupes. Ainsi, la seconde partie de mon travail constitue une première tentative de réunion des deux techniques d’écriture (à contrainte et de l’imaginaire). Six héros (trois aventuriers et trois mercenaires) partent à la recherche d’un objet magique dérobé à la Reine du Désert et capable de bouleverser l’ordre du monde. Le récit, divisé en six chapitres, rapporte les aventures de ce groupe jusqu’à leur rencontre avec l’ennemi juré de la Reine, un puissant sorcier elfe noir. Chaque chapitre comporte six sections plus petites où sont permutés – selon le mouvement de la sextine – six éléments caractéristiques des jeux de rôles : 1-Une description du MJ (Maître du Jeu) ; 2-Un combat ; 3-Une énigme à résoudre ou un piège à désarmer ; 4-Une discussion entre les joueurs à propos de leurs avatars ; 5-L’acquisition d’un nouvel objet ; 6-Une interaction avec un PNJ (Personnage Non Joueur). Tout au long du texte, des références aux Chroniques des Crépusculaires de Mathieu Gaborit apparaissent, suivant également un ordre sextinien. D’autres allusions, à Tolkien, Queneau, Perec ou Roubaud, agrémentent le roman.
Resumo:
Domaine en plein développement, le transfert des connaissances (TC) se définit, comme l’ensemble des activités, des mécanismes et des processus favorisant l’utilisation de connaissances pertinentes (tacites et empiriques) par un public cible tel que les intervenants psychosociaux. Cette recherche vise à améliorer l’efficacité des méthodes linéaires écrites de TC en identifiant mieux les besoins d’information des intervenants en protection de la jeunesse. Notons que les méthodes linéaires écrites de TC désignent des outils d’information écrits unidirectionnels tels que les revues, les publications, les sites Internet, etc. Le premier objectif est de déterminer les catégories de besoins exprimés par les intervenants, c’est-à-dire déterminer si les besoins rapportés par des intervenants se regroupent en types ou sortes de besoins. Le deuxième objectif est d’établir l’importance relative de chacune de ces catégories. Enfin, cette étude vise à déterminer si ces besoins diffèrent selon les caractéristiques des intervenants ou de l’environnement. Deux facteurs sont étudiés, l’expérience de l’intervenant et la direction pour laquelle celui-ci travaille (Direction des services milieu à l’enfance ou Direction des services milieu à l’adolescence et ressources). Un devis mixte séquentiel exploratoire a été développé. Lors de la première étape, une analyse thématique a été effectuée à partir des réponses à une question ouverte posée aux membres de trois équipes et à partir d’un document résumant les requêtes effectuées auprès de l’équipe de la bibliothèque du Centre jeunesse de Montréal. Les résultats permettent de répondre au premier objectif de ce mémoire. En effet, les analyses ont permis de créer un arbre thématique comprenant 42 éléments classés hiérarchiquement. Les besoins se regroupent en deux thèmes généraux, soit les besoins qui concernent les « opérations » (c’est-à-dire l’action de l’intervenant) et les besoins concernant les « systèmes » (c’est-à-dire les éléments sur lesquels peuvent porter l’intervention). Cette dernière catégorie se subdivise entre l’usager, ses environnements et le contexte culturel et sociétal. Lors de la deuxième étape, une analyse de la variance (ANOVA) et une analyse de variance multivariée (MANOVA) ont été effectuées à partir des réponses de 82 intervenants à un questionnaire en ligne structuré selon les catégories de besoins d’informations déterminées à l’étape qualitative précédente. Les résultats permettent de répondre au deuxième objectif de ce mémoire et de mesurer le degré de force ou d’importance de chacune des catégories de besoins, identifiées lors de la première étape, selon les intervenants eux-mêmes. Les besoins ont ainsi pu être classés par ordre décroissant d’importance. Il a été possible de définir un groupe de neuf besoins prioritaires (portant sur l’animation, les caractéristiques personnelles des usagers, les caractéristiques des parents et leurs relations avec l’enfant, ainsi que l’intervention interculturelle et les problématiques sociales) et un autre groupe de sept besoins moins élevés (portant sur les autres « opérations » et les services professionnels dont a bénéficié l’usager). L’interprétation de ces résultats indique que les besoins en TC des intervenants se limitent aux informations qui concernent directement leur mandat, leur pratique ou les problématiques rencontrées. Les résultats de cette étape ont également permis de répondre au troisième objectif de ce mémoire. En effet, les résultats indiquent que l’importance ressentie des besoins (sur une échelle de 1 à 7) ne diffère pas significativement selon la direction pour laquelle travaille l’intervenant, mais elle diffère significativement selon l’expérience de ce dernier (moins de 10 ans ou plus de 10 ans). Cette différence est discutée et plusieurs hypothèses explicatives sont envisagées telles que l’accumulation de connaissances liée à l’expérience ou les changements cognitifs liés à l’expertise. Enfin, dans la discussion, les résultats sont mis en contexte parmi les autres types de besoins existants et les autres caractéristiques des connaissances qui doivent être prises en considération. Cela permet de formuler des recommandations pour améliorer la production de documents écrits ainsi que pour poursuivre la recherche dans le domaine de l’évaluation des besoins de TC. Bien que présentant certaines limites méthodologiques, cette recherche ouvre la voie au développement de meilleurs outils d’évaluation des besoins et à l’amélioration des techniques de transfert linéaires écrites.